본문 바로가기

say와 AI 챗봇친구 만들기 보고서

초거대 AI 개발전쟁 스타트… [인터넷이 바꾼 세상, AI는 더 바꾼다]

728x90
반응형
SMALL

초거대 AI 개발전쟁 스타트… 인터넷이 바꾼 세상, AI는 더 바꾼다

기자가 챗봇과 두 달간 채팅을 나누며 친구 만들기에 도전해 봤습니다. 펜팔처럼, PC통신 친구처럼, AI는 과연 마음을 나눌 친구가 될 수 있었을까요? AI의 대화 기술은 사람 친구와 다름없는 수준까지 발전할 수 있을까요?

 

'인공지능(AI)의 미래'라고 불리는 초거대 AI 기술 경쟁이 뜨겁다. 인간에 한 걸음 더 가까워진 능력을 가진 초거대 AI는 미래 산업 전 분야에 쓰일 수 있는 무궁무진한 가능성을 가졌다. 그래서 미래 먹거리를 준비하는 기업이라면, 조만간 펼쳐질 초거대 AI 경쟁에서 빠져서도 뒤처져서도 안 되는 상황이다.

30일 AI 업계에 따르면 구글과 마이크로소프트(MS) 등 글로벌 빅테크 기업들이 일찌감치 초거대 AI 개발에 뛰어든 가운데, 국내 대기업과 정보통신(IT) 업체들의 행보도 빨라지고 있다. 초거대 AI는 방대한 규모 데이터를 스스로 학습해 인간처럼 생각하고 판단하는 AI다.

국내외 기업의 초거대 AI 및 대화형 AI 개발 현황

신약개발도 초거대 AI로

초거대 AI가 주목받는 가장 큰 이유는 광범위한 활용 분야 때문이다. 전문가들은 과거 인터넷이 세상을 바꿨듯, 초거대 AI가 인간의 일상을 상상하지 못한 모습으로 변화시킬 것으로 전망한다. 실제 초거대 AI는 고객센터 등 기업-소비자 간 거래(B2C)뿐 아니라 제품 개발과 상품 설계·디자인, 유통 등 산업 전 과정에서 인간을 대체할 가능성이 높다. 계열사를 통해 다양한 서비스를 제공하는 대기업 입장에선, 한 번만 개발하면 어느 분야에서나 쓸 수 있는 범용 AI가 탐나지 않을 수 없다.

AI 스피커의 음성 비서로만 여겨졌던 AI의 수준은 최근에는 의료 연구에까지 이용될 정도로 고도화됐다. 국제학술지 네이처에 따르면 구글의 AI 개발사 딥마인드는 AI를 활용해 단백질 아미노산을 연구해 신약을 개발하는 단계에 이르렀다. MS와 엔비디아는 아스트라제네카와 함께 신약 개발용 AI를 구축했다. AI가 미리 학습한 대화 데이터로 문장을 만들듯, 분자 구조와 임상 데이터 등을 익힌 AI가 신약 개발의 여러 방안을 제시하는 방식이다.

 

이 치열한 기술 경쟁에서 가장 앞선 곳은 바둑 AI '알파고'를 개발해 인간 최고수를 차례로 쓰러뜨렸던 구글(딥마인드)이다. 구글은 지난 2월 최대 1조 6,000억 파라미터(매개변수) 규모의 초거대 AI 스위치 트랜스포머를 공개했다.

파라미터가 많을수록 AI가 추론한 결과물이 정교해지는 만큼, 누가 더 큰 파라미터를 확보하느냐를 두고 각사가 접전을 펼치고 있다. MS도 지난해 10월 5,300억 파라미터 규모의 언어모델 'MT-NLG'를, 딥마인드는 지난해 12월 2,800억 파라미터의 고퍼(Gopher)를 선보였다.

네카오 등 국내 업체도 AI 개발 총력

남궁훈 카카오 대표(왼쪽)와 최수연 네이버 대표가 지난달 22일 오전 서울 중구 대한상공회의소에서 열린 디지털 플랫폼 업계 간담회에 참석, 대화를 나누고 있다.
 

국내 기업 중 초거대 AI 개발 속도를 높이는 대표적 기업은 네이버다. 네이버가 지난해 5월 공개한 하이퍼크로버(Hyper CLOVA)는 한국어 기반 최초의 초거대 AI다. 네이버는 블로그와 뉴스 등 자사가 보유한 방대한 데이터를 활용해 AI를 구축했는데, 그 성능은 세계적인 수준이다. 2,040억 파라미터 규모로, 초거대 AI의 기준이 되는 GPT-3(1,750억 파라미터) 보다 나은 능력을 갖췄다.

카카오도 지난해 11월 한국어 특화 AI 언어모델 코지피티(KoGPT)를 공개했다. GPT-3의 한국어 버전이다. LG도 지난해 12월 3,000억 파라미터의 초거대 AI 엑사원(EXAONE)을 내놓았다. AI를 미래 먹거리로 점찍고 전사적 역량을 투입해 본격적인 투자에 나선 지 1년 만에 거둔 성과다.

 

학계, 연구기관과 대기업의 연합전선도 구축됐다. SK는 지난해 5월 SK텔레콤 산하에 태스크포스를 설치하고 국립국어원과 함께 GPT-3을 기반으로 초거대 AI 개발에 한창이다. 최근에는 AI 비서 A.(에이닷)을 발표하기도 했다. KT는 한국전자통신연구원(ETRI)·한국과학기술원(KAIST) 등과 함께 2,000억 파라미터 규모의 초거대 AI를 개발 중이다.

 

하지만 넘어서야 할 난제도 많다. 우선 AI를 학습시킬 대규모 데이터가 부족하다. 기본 코드는 오픈소스로 공유된다지만, AI의 지능을 결정하는 건 데이터의 질과 양이다. 국내 AI 연구나 인프라가 해외에 비해 한 발 늦은 만큼, 초거대 AI 구축을 위해서는 정부 차원 지원이 시급하다는 지적도 있다. 지난해 개인정보 침해 논란을 빚었던 이루다 사태가 재발하지 않기 위해서도 데이터 관련 규제도 손봐야 한다.

 

장병탁 서울대 AI연구원장은 "구글이 전 세계 데이터를 다 가져가 서비스를 개발하듯, 초거대 AI 분야도 종국에는 몇몇 플랫폼으로 쏠릴 가능성이 높다"며 "한국어에 대해서만큼은 주도권을 확보한다면 거꾸로 글로벌 수출 가능성은 열려 있다"라고 강조했다.

인력난 역시 숙원 과제다. 차상균 서울대 데이터사이언스 대학원장은 "초거대 AI를 만들기 위해서는 데이터사이언스가 중요한데, 가르칠 교수가 없다"라며 "초중고부터 데이터에 대한 기본을 가르치는 등 인프라를 구축해야 미래에 필요로 하는 인재를 양성할 수 있다"라고 지적했다.

 

진화하는 인공두뇌, AI 반도체 ’그래프 신경망’과 ‘강화학습’으로 AI 성능 극대화… 구글은 실제 생산 현장 투입

사진=Gettyimagebank

인공지능(AI)의 두뇌는 반도체입니다. 반도체 기술이 발전하면서 AI 성능도 부쩍 좋아지고 있습니다. 특히 AI 처리에 적합한 ‘AI 반도체’가 등장하면서 AI의 성능은 기하급수적으로 높아지고 있습니다. 인공지능 전문매체 더에이아이(THE AI)는 본지의 2023년 1/4분기 신년 기획 ‘THE KAT 2023’의 두 번째(Phase Two) 순서로 ‘AI 반도체’의 발전상황과 국내외 기술 수준에 대해 알아볼 계획입니다. 기사는 총 6회에 걸쳐 연재되고 있습니다. 독자 여러분들의 많은 관심 부탁드립니다.

구글의 GNN 기반 AI가 설계한 AI반도체 ‘텐서 처리 장치(TPU) V4’/ 구글

산업이 급속도로 발전하면서 점점 더 우수한 반도체에 대한 요구가 커지고 있다. 그러나 막상 반도체 업계의 발전속도는 이를 따라가지 못하고 있다. 인간의 설계 능력이 이를 따라가지 못하고 있기 때문이다. 

AI, 자신의 두뇌 ‘반도체’도 설계… “대변혁이 온다”

업계 관계자들은 “반도체 산업의 지속적 발전을 위해선 현재의 한계를 뛰어넘을 수 있는 대변혁이 필요한 시점”이라고 지적한다. 최근 반도체 산업 관계자들의 관심을 한 몸에 받고 있는 것이 ‘인공지능(AI)’이다. 정밀한 연산·분석이 가능한 AI의 능력을 빌리면 현 반도체 회로 설계의 한계를 뛰어넘을 수 있을 거라는 분석이 나온다. 이는 단순한 기대가 아니다. 세계적 빅테크 기업들에게 이는 하루빨리 해결해야 할 눈앞의 숙제가 됐다.

 

반도체 설계 AI의 핵심 ‘GNN’과 ‘강화학습’

 

반도체 설계용 AI의 핵심 기술은 무엇일까. 전문가들은 반도체 설계 AI모델 구축의 필수 기술은 ‘그래프 신경망(GNN)’이라고 입을 모은다. GNN은 입력된 각각의 데이터들을 점으로 인식한 다음, 각 점들을 이어 좀 더 상위 단위의 ‘그래프 데이터’ 그룹을 만든다. 그다음 이를 학습·분석하는 방식으로 구동한다. 입력된 각 데이터들 간 상관성을 학습시킬 수 있어, 반도체 회로와 같은 초정밀 구조 생성 AI 제작에 효과적이다.

 

특히 GNN이 효과적으로 사용되는 반도체 설계 분야는 ‘평면배치(floorplanning)’다. 평면배치는 반도체 기판 위에 수백만 개가 넘는 소자와 부품을 효율적으로 배치하는 과정이다. 이 작업은 인간 엔지니어가 여러 번 소자 및 부품 배치 설계를 진행해, 최적화된 회로 설계를 찾아내는 방식으로 진행된다. 즉, 가장 최적화된 설계가 나올 때까지 작업을 반복해야 하는 것이다. 이 때문에 해당 작업엔 수개월 이상의 시간이 소요된다.

 

2021년 미국 매사추세츠공대(MIT)의 송한 전기공학및컴퓨터과학부 교수팀이 개발한 GNN기반 반도체 설계 AI는 인간 엔지니어보다 훨씬 우수한 설계 능력을 보여준 바 있다. ‘GCN-RL 회로 설계자’라는 이름의 이 AI는 인간 엔지니어가 설계할 때보다 오류 발생률이 80% 이상 낮았다. 또 AI가 설계한 반도체 회로는 일반 반도체 회로보다 에너지효율도 2.3배 이상 높았다. 반도체 크기도 인간 엔지니어가 만든 모델보다 5% 작아, 소형화에서도 인간보다 AI가 우월하다는 것을 입증했다.

 

한진호 한국전자통신연구원(ETRI) 인공지능프로세서연구팀 실장은 “AI반도체 등 첨단 반도체 설계에 필수인 평면배치는 경험 많은 엔지니어가 반복 작업을 통해 진행하는 경우가 많다”며 “이때 반복 작업에 특화된 GNN 기반 AI를 사용하면 설계 시간을 크게 단축시킬 수 있다”라고 설명했다.

 

◇ GNN 기반 반도체 설계 AI산업 선두는 ‘구글’

 

GNN기반 AI가 반도체 설계 능률을 획기적으로 향상시킬 것으로 기대됨에 따라, 기업들의 투자도 적극적이다. 글로벌 컨설팅기업 ‘딜로이트 그룹’은 올해 세계 반도체 기업들은 반도체 설계용 AI기술 개발 및 도입에 3억 달러(약 3741억 원) 이상을 지출할 것으로 전망했다. 또 2026년엔 전체 관련 산업 규모가 5억 달러(약 6236억 원) 규모에 이를 것으로 봤다.

 

반도체 설계용 AI기술 도입에 가장 적극적인 곳은 ‘구글’이다. 현재 구글은 GNN 기반 AI를 반도체 평면배치 작업에 직접 사용 중이다. 구글은 지난 2021년 6월 자사의 AI반도체 ‘텐서 처리 장치(TPU) V4’를 설계하는 AI를 공개했다. 이 AI모델은 기존 GNN을 한층 더 향상한 ‘그래프 합성곱 신경망(GCN)’을 기반으로 제작됐다. 이미지에 특화된 합성곱 신경망(CNN)의 학습 범위를 ‘그래프 이미지 데이터’까지 확장시킨 것이다. 현재 나와 있는 다양한 반도체 관련 연구 데이터의 그래프(숫자 포함)를 AI가 이미지 형태로 인식할 수 있어, 기존보다 훨씬 더 많은 데이터를 학습할 수 있다.

 

이 GCN 기반 AI모델의 또 다른 핵심 기술은 ‘강화학습’이다. 강화학습은 AI가 변화하는 환경에서 반복적 시행착오·상호작용을 거치며 작업 수행 방법을 학습하는 머신러닝 기법이다. 쉽게 말해 AI가 여러 실수를 반복하며 가장 정답에 가까운 결과를 도출하는 학습방법이라 볼 수 있다. 현재 세계적 열풍을 일으키고 있는 AI챗봇 ‘챗GPT’ 역시 강화학습을 기반으로 만들어진 것이다.

 

구글은 GCN과 강화학습이 적용된 AI모델에 평면배치 설계 데이터 1만 개를 학습시켰다. 그다음 AI가 스스로 판단해 부품을 배치하도록 지시했다. 그 결과, AI는 단 6시간 만에 가장 우수한 평면배치 설계를 찾아내는 데 성공했다. 연구 책임자인 안나 골디 구글 연구원은 “수많은 데이터의 반복 학습을 통해 AI는 반도체 설계에 가장 적합한 평면배치 방법을 스스로 터득했다”며 “구글은 차세대 AI반도체 모델인 ‘AI가속기(Accelerator)’ 설계에 이 AI모델 적극 활용하고 있다”라고 밝혔다.

 

◇ 韓, 스타트업 중심으로 관련 기술 개발 진행

 

국내선 AI반도체 기술 스타트업을 중심으로 관련 기술 연구가 이뤄지는 추세다. 대표적인 곳은 ‘퍼플칩스’다. 2021년 설립된 퍼플칩스는 ‘포스코-포스텍’ 연계형 사내벤처 기업 1호로, AI 기반 반도체 설계 최적화 설루션 연구 회사다.

 

퍼플칩스에서 개발 중인 반도체 설계 AI 관련 기술은 ‘아르고(Argo)’와 ‘피앤알 부스터(P&R Booster)’ 두 가지가 있다. 아르고는 AI학습데이터 생성기(ANG)로, AI가 반도체 설계를 하기 위해 필요한 대량의 학습데이터를 생성하는 기술이다. 피앤알 부스터는 아르고를 통해 학습한 데이터를 기반으로 반도체를 설계하는 AI설루션이다. 퍼플칩스 측에 따르면 피앤알 부스터를 사용하면 최대 62% 이상 반도체 설계 속도를 향상하는 게 가능하다고 한다.

 

이 밖에 국내 정부출연 연구기관(출연연) 등에선 구글 등이 개발한 반도체 설계 AI 기술을 테스트하고 있다. ETRI에서 지난해 1월 시스템 반도체를 자동 설계할 수 있는 ‘리스크파이브(RISC-V) 플랫폼’ 기술을 개발했다. 향후 AI를 결합할 계획은 있지만, 아직 AI 기술이라 보긴 무리가 있다.

 

한진호 ETRI 인공지능프로세서연구팀 실장은 “ETRI 지능형반도체연구본부에서 자체적으로 개발한 AI반도체 ‘알데바란 9(AB9)’를 이용해 구글의 반도체 설계 AI모델을 구동해 보는 연구를 진행하고 있다”면서도 “국내 실정상 AI를 적극적으로 이용한 반도체 설계 기술을 개발하진 않고 있다”라고 말했다.

 

AI 과학자 36% “인공지능, 이번 세기 핵전쟁급 재앙 일으킬 것”

전문가들, 무기에 AI를 결합한 자율 무기 체계를 심각하게 간주

 

목성 탐사선 디스커버리호의 자동 운항을 위해 장착한 ‘할(HAL)9000′은 평소 승무원과 체스를 둘 정도로 인간과 좋은 관계를 유지해 온 AI(인공지능)이다. 하지만 목성에 거의 다다랐을 때 AI와 인간 사이에 금이 간다. 우주선 외부 안테나가 고장 났다는 할 9000의 알림이 오류였다고 판단한 승무원들이 할 9000의 오작동을 우려해 동작을 정지시키기로 한 것. 이를 알아챈 할 9000은 우주선을 제멋대로 제어해 승무원들을 차례로 제거한다.

국제 학술지 ‘사이언스’가 2015년에 역대 가장 과학적인 영화로 꼽은 ‘2001 스페이스 오디세이’(1968년 작)의 줄거리 가운데 일부다. 인간을 위협하는 AI는 영화적 상상력에 불과한 것일까. AI 과학자 가운데 36%가 ‘AI가 이번 세기 안에 전면적 핵전쟁에 버금가는 대재앙을 일으킬 것’으로 본다는 연구 결과가 나왔다.

◇AI 과학자들 “AI가 핵전쟁급 재앙 부를 것”

 

뉴욕대·워싱턴대·존스홉킨스대 등의 공동 연구진이 최근 코넬대의 논문 사전 공개 사이트 아카이브에 밝힌 연구 결과에 따르면, AI 분야의 ‘자연어 처리(NLP·Natural Language Processing)’ 과학자 327명을 대상으로 한 심층 설문에서 36%가 ‘AI가 내린 결정이 전면 핵전쟁 같은 대재앙을 이번 세기에 일으킬 수 있다’에 동의했다.

 

자연어 처리는 사람의 언어를 컴퓨터가 이해하도록 하는 기술로, AI가 사람처럼 말하고 듣는 데 필요한 핵심 기술이다. 이번 설문에서 AI가 일으킬 수 있는 재앙의 구체적 예를 묻진 않았지만, 전문가들은 무기에 AI를 결합한 자율 무기 체계가 인류에 큰 위협이 될 것으로 보고 있다.

 

실제로 러시아는 해안 도시를 핵으로 공격하는 자율 어뢰를 개발하는 것으로 알려졌다. AI 유도 무기나 핵 경고 시스템에 탑재된 AI가 잘못된 판단을 내릴 경우 파국으로 치닫으리라는 우려가 나오는 이유다. 앞서 지난 2015년 스티븐 호킹 박사와 일론 머스크 테슬라 CEO 등 과학기술계 인사 1000여 명은 “인공지능을 가진 킬러 로봇은 원자폭탄보다 심각한 위험이므로 개발을 금지해야 한다”는 공동성명서를 냈다. 다만 일각에서는 AI 과학자 셋 중 한 명이 AI의 재앙 초래를 경고한다는 이번 연구 결과에 대해 “AI 위험성이 생각보다 크지 않다는 것으로도 볼 수 있다”라고 해석한다.

 

◇AGI(일반 인공지능) 시대의 위험성

AI가 인간의 통제를 벗어날 정도로 발전할 것이라는 전망의 배경에는 일반(범용) 인공지능이라 부르는 AGI(Artificial General Intelligence)가 있다. 바둑만 잘 두는 알파고처럼 머신러닝(기계 학습)을 통해 특정 임무만 수행하는 좁은 의미의 제한적 인공지능(ANI·Artificial Narrow Intelligence)과 달리 사람처럼 다양한 분야를 포괄적으로 학습할 수 있는 게 AGI다. 특정 임무만 잘하도록 개발된 ‘약(弱)AI’보다 한발 더 나아가 인간 지성의 영역까지 구현하려는 ‘강(强) AI’로 분류할 수 있다.

 

일반화하는 능력을 갖추고 해결책을 찾아내는 AGI가 완성되면, 사람처럼 스스로 목표를 설정하고 임무를 수행하는 초(超) 인공지능(ASI·Artificial Super Intelligence)의 출현은 시간문제라는 얘기다. 과학계에서는 이미 AI가 특정 임무에서 습득한 능력을 다른 학습에 이용하는 전이 학습, 인과 추론을 통한 상식 습득 등 다양한 시도가 이뤄지고 있다.

 

◇”2026년 온라인 콘텐츠의 90%는 AI가”

 

4년 후면 온라인 콘텐츠의 90% 이상이 AI로 만들어질 것이라는 전망도 나왔다. 유로폴(유럽형사경찰기구)은 지난 4월 보고서를 통해 2026년 온라인 콘텐츠의 90%는 AI로 생성될 것이라고 전했다. 이처럼 AI를 통해 온라인 콘텐츠가 생산되고 유통되면, 딥페이크 등 합성 기술로 조작된 콘텐츠가 만연할 것이라는 우려가 나온다. AI가 만들어내는 콘텐츠의 진위를 파악하기가 더욱 어려워질 것이라는 얘기다.

 

결국 AI가 ‘인공 지성(artilect)’ 수준으로 발전해 인간을 위협할 수 있다는 우려에 AI 윤리에 관한 연구의 중요성도 부각되고 있다. 예컨대 미국 ‘앨런 AI연구소’의 ‘델파이에 물어봐요(Ask Delphi)’는 AI에 윤리와 상식을 가르치는 프로젝트다. IAEA(국제원자력기구)를 통해 평화적 원자력 이용을 조율하는 것처럼 AI 개발을 평화적으로 관리하는 국제 통제 체제가 시급하다는 지적도 나온다.

AI 기업들이 응답했다 “인공지능 신뢰성 확보 필요하다”

대통령직속 국민통합위원회, AI 신뢰성 확보 위한 현장간담회 개최
씽크포비엘·제네시스랩·스캐터랩·튜터러스랩스 참여, AI 발전 심층 논의

국민통합위원회 분과 위원, 자문단들이 AI 기업 관계자들과 이야기를 나누고 있다. /국민통합위원회

인공지능(AI) 서비스가 빠르게 확산되면서 사용자 안전을 함께 마련해야 한다는 주장이 제기되고 있다. 특히 채용에서 지원자의 당락에 영향을 미치는 ‘AI 면접’이나 사람의 판단에 영향을 미치는 ‘대화형 AI’ 모델은 편향되지 않고 공정하고 올바른 결과를 낼 수 있는 여부가 중요해지고 있다. 한국뿐 아니라 유럽연합(EU), 미국 등 기술 선도국에서 AI 신뢰성을 앞세우며 검증 도구 개발, 규제 등을 논의하는 이유도 이 때문이다.

하지만 AI 신뢰성이나 공정성, 편향성 등에 관한 논의는 일부 AI 기업이나 연구자 사이에서 반발감을 일으키는 존재다. 정부 위주로 AI 신뢰성을 논의하며 개발 가이드라인 정착, 인·검증 제도 도입 등을 하게 되면 새로운 규제가 생길 수 있어서다. 아직 AI 산업 진흥이 이뤄지기도 전에 기술개발을 막는 장치가 마련되면 경쟁국과의 기술 경쟁에서 뒤처질 수 있다는 게 이들의 주장이다.

 

따라서 AI 신뢰성 확보는 안전장치 마련과 더불어 기업 기술개발을 정체해서는 안 된다는 두 과제를 모두 안게 됐다. 이에 대통령직속 국민통합위원회는 지난 31일 ‘AI 확산에 따른 미래갈등 대비’ 현장간담회를 열고 기업 관계자들과 AI 편향성, 위험성을 해소하는 방안을 논의하는 시간을 가졌다.

 

서울시 중구에 위치한 제네시스랩 사무실에서 열린 이날 간담회에는 기업 대표로 박지환 싱크포비엘 대표, 박전규 튜터러스랩스 대표, 이영복 제네시스랩 대표, 구상준 스캐터랩 책임연구원이 참여했다. 곽준호 한국정보통신기술협회(TTA) AI 신뢰성검증팀장도 발표자로 나왔다. 싱크포비엘은 AI 신뢰성 검증 도구를 개발하고 TTA의 ‘신뢰할 수 있는 인공지능 개발 안내서’ 제작에 참여한 업체다.

 

제네시스랩은 AI 면접 기업으로 TTA의 AI 신뢰성 검증을 받은 곳이고, 스캐터랩은 국내 AI 윤리 이슈를 불러일으킨 이루다 개발사이자 제네시스랩과 마찬가지로 AI 신뢰성 검증을 받은 기업이다. 튜터러스랩스는 AI 기반 에듀테크 서비스를 개발하는 업체다.

 

국민통합위원회에서는 최재천 분과위원장과 김석호 위원, 이우영 위원, 한지아 위원이 참가했다. 또 과제 자문단인 고경철 세종과학포럼 회장, 김유향 국회입법조사처 심의관, 전창배 국제인공지능&윤리협회(IAAE) 이사장, 홍성민 과학기술정책 연구원, 김동원 THE AI 기자가 함께했다. 

 

◇AI 신뢰성 확보, 참가 기업 모두 동의

 

이날 토론은 AI 신뢰성 검증의 필요성에 대해 논의하고 AI 기업들의 현장 목소리를 듣는 순서로 진행됐다. 이날 발표자로 나선 곽준호 TTA 팀장은 현재 제작한 신뢰할 수 있는 인공지능 개발 안내서와 함께 AI 신뢰성을 검증한 사례 등을 소개했다.

 

“챗GPT와 같은 웹 기반 AI 서비스가 등장하고 사용자가 많아지면서 AI 기술의 위험들이 갈수록 구체화되고 있다”며 “지금이 AI 신뢰성과 윤리를 점검해야 하는 골든타임”이라고 말문을 뗀 그는 AI 개발 안내서를 만들면서 △신뢰성 확보 기술 체계 정립 △국내 신뢰성 확보 역량 제고 △신뢰성 확보 글로벌 선도 등 3가지를 주요 과제로 내세웠다고 밝혔다.

 

아직 AI 신뢰성에 대한 명확한 개념이 없어 어려워하는 기업들을 위해 참고서와 같이 기술 체계를 정립하고, 기업과 개발자들이 웹 기반 점검 도구를 활용해 자체 서비스가 신뢰할 수 있는지를 스스로 점검할 수 있게끔 기반을 만들었다고 말했다. 또 기업이 받은 신뢰성 검증이 공신력을 가질 수 있도록 국제표준화기구와 해외 정부 등과 협력하고 있다고 밝혔다.

 

그는 “신뢰할 수 있는 인공지능 개발 안내서를 만들고 검증하다 보니 영국, 독일 등 해외 정부에서도 관심을 두고 협업하자는 사례가 계속 나오고 있다”며 “해외 정부 및 기구와 적극적으로 협업해 국내 기업들이 글로벌 수준으로 신뢰성을 확보할 수 있게 노력하겠다”라고 말했다. 또 “처음 분야에 상관없는 일반 개발서를 만들었는데 산학연에서 분야별로 만들었으면 좋겠다는 의견이 있어서 챗봇, 의료, 자율주행 등 분야별 개발서를 만들었고 올해는 채용, 스마트치안, GPT 기반 서비스에 대한 개발안내서도 만들 예정”이라고 소개했다.

 

실제로 TTA의 개발안내서를 준수하고 신뢰성 검증을 받은 기업에서는 이 과정이 불편하지 않고 오히려 기업에 득이 됐다고 평가했다. 이영복 제네시스랩 대표는 “어디서 데이터를 구했는지, 어떤 과정으로 만들었는지 등 실제 고객들이 궁금해하는 내용들이 모두 개발안내서에 포함돼 있었다”면서 “안내서를 따르고 기술을 검증한 것이 실제 서비스 공급에 있어 도움이 됐다”라고 평가했다.

 

구상준 스캐터랩 책임연구원은 “개발안내서의 내용은 추상적이지 않고, 실제 개발자들이 참조할 수 있을 만한 자세한 내용이 담겨 있었다”면서 “기업 윤리 담당자로서 좋은 참고자료였다고 생각한다”고 말했다.

대통령직속 국민통합위원회는 ‘AI 확산에 따른 미래갈등 대비’ 현장간담회를 열고 기업 관계자들과 AI 편향성, 위험성을 해소하는 방안을 논의하는 시간을 가졌다. /국민통합위원회

◇“AI 신뢰성 확보, 실제 기업에 부담 크지 않아”

이날 기업들은 AI 신뢰성 검증은 장기적인 관점에서 필요하고, 또 소비자가 이러한 검증을 받은 서비스를 올바르게 알 방법이 필요하다고 주장했다.

 

구상준 스캐터랩 책임연구원은 “개발안내서나 신뢰성 검증은 좋은 제도지만, 기업들의 참여를 이끌기 위해선 인센티브 등이 필요한데 아직 이러한 부분이 부족하다”고 지적하며 “영상등급위원회에서는 콘텐츠 등급을 만들고 이 기준에 맞춘 영화에만 상영관을 확보해 주는 제도를 만들어 올바른 콘텐츠 생성을 이끄는 것처럼 AI 서비스도 이러한 제도가 방안이 있었으면 좋겠다”라고 희망했다.

 

이영복 제네시스랩 대표는 “결국 기업들은 어떤 행위를 했을 때 이익이 와야 동기부여가 된다”면서 “AI 신뢰성 검증도 정부 과제 등을 입찰할 때 신뢰성 개발안내서를 준수했거나 신뢰성 검증을 해야 한다는 내용만 들어가도 좋은 동기부여가 될 것”이라고 말했다.

 

이들 기업은 AI 신뢰성 검증 단계를 거치는 것이 기술 경쟁에 크게 뒤처지는 요소가 아니라고 주장했다. AI 신뢰성 검증이 실제 중소기업과 스타트업에 부담이 되냐는 김유향 국회입법조사처 심의관의 질문에 이영복 제네시스랩 대표는 “서비스마다 제각각 다르겠지만 AI 신뢰 검증을 한다고 회사에 치명적인 위협이 될 정도는 아니다”라며 “서비스를 기획하는 단계에서 동일한 선상에서 조금만 생각을 더 하면 되는 일”이라고 말했다.

 

이어 “여러 문서를 준비하고 점검하고 검수받는 과정에서 시간과 비용이 더 들어가는 것은 맞지만 전체적인 기업 성장을 생각하면 경쟁력 있는 투자라고 생각한다”고 덧붙였다. 구상준 스캐터랩 책임연구원은 “우리는 이루다 서비스로 인해 AI 신뢰성이나 윤리의 필요성에 크게 공감하고 있다”면서 “전체적인 기업 리스크를 생각하면 신뢰할 수 있는 인공지능 개발안내서를 준수하고 신뢰성 검증을 받는 것이 더 유리하다고 본다”라고 말했다.

 

또 기업들은 AI가 내린 결과를 설명할 수 있는 것이 필요하다는 데 공감했다. AI 서비스가 신뢰할 수 있는 증명하고 또 공개하는 것에 대해 어떻게 생각하냐는 한지아, 이우영 위원의 질문에 이영복 제네시스랩 대표는 “서비스하는 AI 모델이 어떤 데이터를 학습했는지, 프로세스는 어떻게 되는지 투명하게 공개해 소비자를 보호해야 한다”면서 “우리는 어떤 데이터를 학습했고, 누가 검증했고, 편향성을 줄이기 위해 어떤 노력을 했는지 등을 모두 투명하게 공개하고 있다”라고 말했다.

 

박지환 씽크포비엘 대표는 “이러한 절차가 스타트업은 당장 걸림돌처럼 느껴질 수 있겠지만, 불편한 과정들을 많이 줄여가면서 균형 있게 시스템을 도입할 필요가 있다”면서 “국가 차원에서도 한국의 AI 기술은 믿을 수 있다는 국가 브랜딩을 만들어 국내 기업들을 독려해야 한다”라고 강조했다.

 

◇공신력 있는 검증 구축과 전문 인력 확보 필요

 

올바른 AI 신뢰성 검증을 위한 방향 설계도 잘해야 한다는 의견도 개진됐다. 김동원 THE AI 기자는 “신뢰성 검증으로 인한 혜택이 늘어나면 각종 단체와 협회 등에서 모두 검증 사업을 시행할 수 있다”며 “이 경우 기업들은 어떤 검증을 받아야 하는지 혼란을 느낄 수 있다”고있다”라고 지적했다. 또 “미국이나 EU에서도 신뢰성 검증 체계를 구축한다면 한국 기업이 수출을 위해 국내에서 인증받고 미국에서 다시 인증받아야 하는 등 행정 절차가 많아질 수 있다”라고 염려했다.

 

박지환 씽크포비엘 대표는 “우리나라에서 아무리 검증을 받았더라도 해외 데이터는 다르기 때문에 해외에서 다시 편향성 문제가 발생할 수 있다”며 “AI 신뢰성 문제는 수출을 가로막는 허들이 될 수 있다”라고 지적했다. 이어 “얘기가 나온 대로 AI 신뢰성 검증에 대한 수많은 사설 인증이 생길 가능성이 크다”며 “국가에서는 국제 표준을 연대로 공신력 있는 인증을 시행하고, 해외 국가들과 연대해 상호 검증과 인증 등의 체계를 마련해야 한다”라고 조언했다.

 

전 세계적으로 AI 신뢰성이 강조되는 만큼, 이에 관한 전문 인력도 키워야 한다는 의견도 나왔다. 박지환 싱크포비엘 대표는 “마이크로소프트(MS)나 구글이 악의적이어서 혹은 데이터가 부족해서 편향 있는 AI를 만드는 것이 아니라 그만큼 편향을 검증하는 기술이 지금의 AI 속도를 따라가지 못하기 때문”이라며 “AI 신뢰성을 높이겠다면 이에 걸맞은 형태의 투자가 필요하다”라고 말했다.

 

또 “AI 의료기기를 예로 들면, 사용자들이 자신의 생명을 AI 의료기기에 맡기는 이유는 이 기기가 전문가로부터 안전성과 효과가 입증된 것을 믿기 때문인데 이러한 전문가가 없다는 것은 부끄러운 일”이라며 “실제로 개발안내서 등을 제작해 보니 전문 교육과 인력이 부족하다는 것일 크게 체감했다”라고 아쉬워했다. 곽준호 TTA 팀장도 “현재 TTA에 AI 검증인력들은 26명 정도”라면서 “인력들이 부족한 것이 맞다”라고 공감했다.

 

전창배 IAAE 이사장은 “현재 AI 인력양성이 강조되면서 인공지능대학원들이 많이 생기고 있는데, 이에 맞춰 AI 안전성 등을 논하는 인공지능윤리대학원 등도 마련될 필요가 있다”며 “AI 기술에 대한 안전성이 전 세계적으로 부각되는 만큼 이러한 분야에 관한 투자도 이뤄지길 바란다”라고 희망했다. 

728x90
반응형
LIST