이선형 한국형사·법무정책연구원 AI·법·정책연구팀장 - 생성형 AI를 활용한 형사·법무 정책 연구기반 마련의 초석, 데이터의 신뢰성을 높이기 위한 지속적인 AI모델링과 융합연구 이어갈 것
이선형 한국형사·법무정책연구원 AI·법·정책연구팀장 - 생성형 AI를 활용한 형사·법무 정책 연구기반 마련의 초석, 데이터의 신뢰성을 높이기 위한 지속적인 AI모델링과 융합연구 이어갈 것
  • 박소연 기자
  • 승인 2024.08.02 10:25
  • 댓글 0
이 기사를 공유합니다

초지능·초연결사회의 대한민국, IT기반의 지속가능한 미래 디지털 전략산업을 선도하다
이선형 한국형사·법무정책연구원 AI·법·정책연구팀장 ⓒ박소연 기자 / 사진 박성래 기자

AI의 발전은 궁극적으로 사회 전반의 다양한 변화를 가져왔다. 특히 데이터와 통계를 기반으로 정확한 결과값을 도출해 우리가 살아가는 사회질서를 정립하고 발생되는 문제에 따른 대응책과 사후평가 등 융·복합적인 연구 분야에 활용되며 폭넓은 영향력을 발휘하고 있다. 이에 한국형사·법무정책연구원 역시 2023년 사법무디지털센터를 새롭게 구축하며 기술 및 개발영역을 담당하여 내부 통계서비스와 AI lab 등을 운영하는 정보통계팀과 형사·법무 정책 및 연구과제에서 AI를 활용하는 정책 제안, 빅데이터 분석, 융합연구를 위한 전문 지식 제공, 빅데이터 분석 및 머신러닝 방법론 활용을 담당하는 ‘AI··정책팀을 기반으로 정책연구에서의 AI 활용을 넓혀가고 있다. 이선형 한국형사·법무정책연구원 AI··정책연구팀장 또한 연구기관에서도 디지털 전환과 AI 활용이 점점 더 중요해지고 있어 앞으로도 두 팀의 협업은 발전할 것으로 기대하고 있다고 전했다.

 

이번 기획 인터뷰로 함께해주셔서 감사드립니다. 먼저 팀장님에 관한 소개를 부탁드리겠습니다.

안녕하세요. 한국형사·법무정책연구원 AI··정책연구팀의 이선형이라고 합니다. 저는 한국형사·법무정책연구원의 첫 빅데이터 전문가로 입사하여 현재는 AI··정책팀 팀장을 맡고 있습니다. 대학교에서 정보통신 및 사회학을 전공하였고 데이터마이닝 관련 논문으로 사회학 박사학위를 받았습니다. 본 연구원에 입사하기 전에는 일반 기업에서 데이터팀 팀장이자 데이터과학자로 일한 경험이 있습니다. 이러한 배경을 바탕으로 주로 연구원에서는 빅데이터 분석, 머신러닝 모델링 활용 분석, AI 관련 정책 지원 등 역할을 수행 중입니다.

 

팀장님을 비롯해 한국형사·법무정책연구원 AI··정책연구팀에서는 최근 AI 산업의 어떤 이슈와 정책에 주목하고 계신지 궁금합니다.

저희 연구팀이 주목하는 첫 번째 영역은 생성형 AI 기술입니다. 생성형 AI가 처음 등장했을 때로부터 약 2년이 다 되어가는데, 지금은 이러한 답변 기술의 활용이 많이 확대되었습니다. 저희 기관도 형사법무 분야에서 생성형 AI 기술의 활용과 문제에 대하여 관심이 많습니다. 특히, 공공기관이나 정부기관에서는 정확성에 대한 신뢰와 개인정보보호가 엄격합니다. 생성형 AI의 잘못된 정보 제공(hallucination)이 검색기반으로 개선되었더라도 형사법무 분야의 특성이 반영되거나 민감한 정보를 다루기 위해서는 추가적인 장치나 기술이 요구됩니다. 또한, 제한된 예산으로 최근의 기술을 도입하기 어려운 경우에 대안적으로 활용할 수 있는 방법을 강구하기도 합니다. 예를 들어, RAG(검색증강생성, Retrieval-Augmented Generation)는 대규모 언어모델에 특정 도메인 데이터베이스를 연결하여 제공되는 정보의 정확도와 신뢰성을 높이는 기술로 이를 개인정보보호가 엄격한 범죄자/피해자 데이터에 활용할 수 있습니다. 두 번째로 AI 관련 정책에서 제가 주목하고 있는 것은 융합연구입니다. 사실 형사법무 분야에서 융합연구는 잘 이뤄지지 않았습니다. 기술 도입이나 활용은 완전하게 기술 분야로만 취급되었는데, 현재는 전문적 지식이 필요한 경우가 있습니다. 예를 들어, 범죄 예방 시스템이나 모니터링 기술에서 모델링을 적용할 경우에 위험도가 높은 대상자를 질적으로 선정하여 변수에 가중치를 줄 수 있습니다. 텍스트 기반 모니터링 시스템에서도 키워드 선정은 기계학습 영역이 아닌 전문가의 의견이 중요합니다.

 

AI와 관련한 사회적 범죄 증가의 현황은 어떤지와 더불어 반대로 AI를 활용한 사회적 범죄를 예방하기 위한 대응방안에 관해 어떻게 생각하시는지, 이외에 활용사례가 있다면 무엇인지 궁금합니다.

AI 기술을 활용하여 범죄를 범하려면 기본적으로 취하려는 이익이 AI 활용 비용보다 더 많거나 높은 만족감을 주어야 합니다. 따라서 고도의 기술이 요구되는 범죄는 기업의 정보를 빼내는 해킹이나 금융 분야로 한정됩니다. 반면, 앞서 제가 주목하고 있다고 말씀드린 생성형 AI 기술은 상대적으로 비용이 많이 들지 않고 일반인들과 접점이 많습니다. 경찰청 자료에 따르면, 생성형 AI 서비스로 인한 범죄로는 피싱 범죄, 명예훼손, 개인정보 유출 등이 있습니다. 아직까지 사회적으로 문제가 될 정도로 확대되지 않았으나 생성형 AI가 일상에 자리 잡을수록 관련 범죄가 증가할 가능성이 큽니다. 이러한 범죄를 예방하기 위한 방안으로 시도되는 것이 모니터링 시스템입니다. 이미 경찰청이나 검찰에서도 활용하고 있는데, 범죄 관련 정보가 등장하면 탐지할 수 있는 기술을 적용하는 것입니다. 제가 직접 수행한 사례로는 자살유발정보 모니터링센터 구축 방안 마련 연구가 있습니다. 데이터 분석을 결과로부터 자살유발정보중에 SNS에서 도배글의 대부분을 차지하는 정보는 약물판매 게시글이었고, 다른 아이디로 게시글을 조금씩 변형해서 도배글을 생산하고 있었습니다. 최근에는 텍스트가 아닌 이미지나 영상으로 변화하는 경향도 발견했습니다. 이러한 도배들은 양이 많고 이미지나 영상은 텍스트 검색에서 제외될 수 있으므로 AI 자동탐지를 위한 키워드 기준과 기계학습을 통한 시스템 구현을 제시한 바 있습니다. 물론, 이러한 시스템도 사기업이 대상이라면 형사법무기관이 직접적으로 관여할 수 없으므로 협조가 필수적입니다.

 

AI 모델링을 기반으로 공공의 안전을 지키고 사회적 인프라 구축을 위해 AI를 활용한 형사정책 연구기반 마련 및 지원정책, 전문가 양성에 있어 우선되어야 할 부분이 있다면 무엇이라고 생각하시는지 궁금합니다.

AI 기술 활용에 있어 도메인 지식은 점점 더 중요해지고 있음에도 불구하고 공공기관에서는 지식 전문성과 기술 전문성이 결합하는 데 많은 어려움을 겪고 있습니다. 지식 전문성을 가진 인재는 기술을 모르고 기술 전문성을 가진 인재는 지식을 모르고, 서로의 영역에 대하여 배울 기회도 별로 없습니다. 비유하자면 IT분야에서 하드웨어와 소프트웨어를 연결하는 펌웨어가 부재합니다. AI를 각 분야에서 활용하려면 펌웨어와 같은 전문 분야가 필요합니다. 제가 현재 참여하고 있는 개인 일상모델 기반 일탈탐지 AI 전자감독 기술개발 연구에서 하고 있는 역할이기도 합니다. 재범확률이 높은 대상자를 선정하고 주요 변수를 확정하는 일이 지식 전문성이라면 전자발찌를 찬 사람들의 데이터로 일탈탐지 모델을 개발하는 것은 기술 전문성입니다. 모델링을 위해서는 데이터가 수치화되어야 하므로 재범확률이 높다는 기준값, 주요 변수의 코딩값, 각 변수의 가중치 등을 정해야 합니다. 이러한 작업은 데이터 분석이나 랭글링(wrangling) 유사해 보이지만 조금 다릅니다. 하나의 예를 더 들어보면, 올해 초 과기부에서 AI 윤리성 향상을 위한 연구가 공고되었습니다. 이 과제에서 AI가 스스로 사회성과 윤리성을 평가하고 판단하는 일은 기술 전문성, 사회성과 윤리성의 판단기준은 지식 전문성의 영역입니다. 지식 전문성은 무엇이 사회적이고 윤리적인지의 정보를 텍스트로 제공할 수 있지만, AI 모델링은 그 판단기준이 수치화되어야만 가능합니다. 따라서 사회성과 윤리성을 판단할 수 있는 스코어링 기준을 제공하는 전문가의 역할이 중요합니다. 이러한 중간 역할을 하기 위해서는 특정 영역의 전문 지식과 더불어 기술적인 지식도 어느 정도 습득해야 합니다. 지식과 기술을 연결하는 전문분야 개발이 어렵다면, 각 분야에서 데이터를 다루고 변환할 수 있는 데이터 전문가나 데이터과학자를 양성하는 프로그램이 요구됩니다.

 

유럽의 AI법 시행에 따른 국내외 AI 시장에 어떤 변화가 있을지, 또한 AI법 시행이 시사하는 바가 무엇이라고 생각하시는지요?

유럽이 가장 먼저 AI법 시행을 했지만 이미 AI 관련 규제의 필요성은 제기되어 왔습니다. 그리고 기술발전이 거론되면 짝꿍처럼 따라오는 것이 규범, 인권, 존엄성 등으로 이러한 경향은 공공영역뿐만 아니라 비즈니스 영역도 유사합니다. 세계 최대 테크 전시회인 ‘CES 2024’의 핵심키워드는 AI, 지속가능성(Sustainability, Eco-Design & Smart Energy), 인류안보(Human Security for All)였습니다. 기술의 발전은 양날의 칼입니다. 잘 활용하면 다양한 혜택을 주지만 부작용이 따라오기 마련입니다. 이 부작용은 의도적인 악용이 아닌 AI 기술 자체의 부작용으로 AI 챗봇 서비스가 어린아이에게 감전사고를 일으킬만한 위험한 행동을 제시하거나 대화 중 위험성을 감지하지 못하는 대응 등입니다. 게다가 생성형 AI 기술은 이미지와 영상으로 확대되고 있어 SNS의 방대한 사진과 영상은 위험에 노출될 수 있습니다. 이러한 상황에서 유럽의 AI법 시행은 기술악용에 대응하는 것을 넘어 AI 기술개발 기업에 책임의무를 부여하여 AI 기술 성장 과정에서 발생할 수 있는 부작용을 최소화할 수 있다는 점에서 의미가 있습니다. 대부분의 국가에서는 AI 기술을 주도하기보다 활용하는 상황이고, 일반인들의 삶에 깊숙이 들어와 있어 문제의 후속 조치보다 선제적 대응이 중요합니다.

 

이선형 한국형사·법무정책연구원 AI·법·정책연구팀장 ⓒ박소연 기자 / 사진 박성래 기자

미래 AI 산업의 영향력과 향후 전망은 어떻게 생각하시는지 궁금합니다.

AI 산업은 아직 초기 단계로 확장과 세분화의 단계로 진입할 것입니다. 여전히 디지털 전환조차 시도하지 않은 곳이 많고, AI를 기사로만 접한 경우도 많습니다. 일반인들 중에서 자신이 AI 예측 모델링으로 광고 노출 대상자가 되어 이 광고를 보게 되었다는 사실을 아는 사람은 별로 없습니다. 결국 AI 기술의 대중화는 AI 기술과 지식이 기업이나 기관 실무에 집중되어 그 혜택이나 실수요자가 일반 대중으로 확장되는 것을 의미합니다. 다만, 우려되는 것은 AI 기술의 불균형입니다. 아직 AI 전문가가 많지 않고, AI 기술 도입을 위해서는 비용이 필요하므로 그 발전은 돈이 있는 곳에서 주도하게 될 가능성이 높습니다. 의료, 범죄, 복지 등 분야에서의 AI 기술 도입에 대한 사회적 요구가 증가할 때에 예산 확보와 전문가 양성 문제 등이 거론될 수 있습니다. 또한, 고려되어야 할 것은 AI 기술이 모든 영역에 적용될 필요가 있는가의 문제입니다. 예를 들어, 일반 고객센터에 AI 챗봇을 적용하는 것과 범죄 피해자를 조사하는 AI 조사관 도입은 같은 서비스로 고려하기 어렵습니다. 피해자 입장에서는 본인의 진술이나 개인정보가 잘 보호되는지 우려할 수 있고, 조사관 입장에서는 진술 과정에서 추가로 할 수 있는 질문을 하지 못해 사건 해결이 더디게 진행될 수 있으므로 기술 도입 이전에 득과 실을 따져보아야 합니다. 이미 AI 시장은 공공부문보다 비즈니스 분야가 모든 면에서 앞서고 있습니다. AI 기술 활용의 불균형과 적절성을 고려하지 않은 AI 시장 확장은 안정적이지 않을 가능성이 큽니다.

 

팀장님께서는 기관 내 업무에 있어 함께하시는 기관과 단체의 종사자와 교육·연구자들과의 소통과 협업을 위해서 주로 어떤 부분에 중점을 두고 계신지 궁금합니다.

각 기관이나 회사에서 AI 기술을 활용한 사례를 통해 문제점이나 어려웠던 점을 서로 공유하고자 노력합니다. 기관 특성과 분야가 달라도 AI 활용을 위한 과정은 비슷하기 때문입니다. 제가 공유한 사례는 모델링을 위한 데이터 수집 과정에서 출처에 따라 기간 설정이 되지 않거나 검색연산자가 다른 문제, 일반 회사에서 진행한 구매 고객 예측 모델링 프로젝트에서 어떤 알고리즘을 적용하는가에 따라 광고 노출의 빈도가 달랐던 경험 등입니다. 사실, AI 관련 학술대회나 세미나에서 공개되는 사례는 성공적인 경우가 많습니다. 성공적인 사례도 배울점이 많지만, AI 분야는 실패 사례가 중요한 정보가 됩니다. 예를 들어, 어떤 기업은 고객이 성희롱 발언을 AI 챗봇 서비스로부터 유도하여 신고를 역으로 당한 사례가 있었습니다. 고독사 방지를 위한 노인 행동 모델링의 경우는 노인의 움직임을 탐지하여 고독사 위험을 예측하는 시스템을 도입하였는데, 노인은 대부분 움직임이 없어 위험도 예측을 실패했습니다. 이러한 실패 사례는 기존에 없던 첫 시도를 위한 아이디어 발굴, 발생할 수 있는 문제점과 오류 추정, 목표에 도달하지 못할 경우 대안 등을 마련하기 위한 주요 정보로 활용할 수 있습니다.

 

팀장님께서 목표를 이루기 위해 인생을 바꾼 단 하나의 원동력이 있다면 무엇이었는지 궁금합니다.

제가 데이터과학자로 성장하는 데 가장 중요한 것을 꼽으라면 일반 회사에서의 경험입니다. 박사학위를 받은 당시 데이터과학 분야는 학계나 공공부문에서 생소했지만 비즈니스 분야에서는 이미 모델링을 위한 중요한 영역으로 인식하고 있었습니다. 데이터팀에서 다양한 데이터를 접하고 구글이나 네이버와 같은 기업과 AI 프로젝트를 하면서 실무를 익혔습니다. 제가 python을 사용해서 데이터 분석이나 모델링을 하는 것에 대하여 많은 분들이 정보통신학이라는 전공을 중요하게 생각하지만, 실제로 개발자가 하는 일과 데이터 분석가가 하는 일은 다릅니다. 물론 인문사회전공자와 비교한다면 코딩에 대한 거부감은 낮았지만, python 숙련도 향상은 회사에서 가능했습니다. 오히려 코딩은 지금이 더 학습할 수 있는 환경이 잘 조성되어 있어 크게 걱정할 부분이 아닙니다. 중요한 것은 목적이나 목표에 맞는 데이터를 수집하고 분석하는 역량을 수련하는 기회입니다. 현재 저는 서강대학교 사회학과 겸임교수로 빅데이터 분석 강의를 통해 학생들이 데이터 분석 역량을 키우는 데 도움이 되고자 노력하고 있습니다. AI 융합 인재가 앞으로 더욱 필요한 상황에서 인문사회 분야의 전문 데이터과학자가 양성될 수 있는 기회가 많이 제공되길 바랍니다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

  • 07238 서울 영등포구 국회대로 70길 15-1 RA542 (여의도동14-9, 극동 VIP빌딩 5층) 월간인물
  • 대표전화 : 02-2038-4470
  • 팩스 : 070-8260-0200
  • 청소년보호책임자 : 문채영
  • 법인명 : 주식회사 월간인물
  • 대표자 : 박성래
  • 제호 : 월간인물
  • 사업자등록번호 : 227-08-61739
  • 등록번호 : 서울 아 03717
  • 등록일 : 2015년 04월 30일
  • 발행일 : 2015년 04월 14일
  • 발행인 : 박성래
  • 편집인 : 박성래, 남윤실
  • 월간인물 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.  |  Copyright © 2024 월간인물. All rights reserved.
  • 「열린보도원칙」 당 매체는 독자와 취재원 등 뉴스이용자의 권리 보장을 위해 반론이나 정정보도, 추후보도를 요청할 수 있는 창구를 열어두고 있음을 알려드립니다.
    고충처리인 박성래 02-2038-4470 psr@monthlypeople.com
우수콘텐츠 우수콘텐츠 인터넷신문위원회 ND소프트