본문 바로가기

say와 AI 챗봇친구 만들기 보고서

[스타트업 미국진출 가이드] ChatGPT의 등장에 따른 법적 리스크 - 인포유앤컴퍼니, 두산 디지털이노베이션과의 AI Chat 프로젝트 성료

728x90
반응형
SMALL

[스타트업 미국진출 가이드] ChatGPT의 등장에 따른 법적 리스크 

 

 

 

많은 기업이 ChatGPT와 같은 생성형 인공지능(Generative AI, 이하 “GAI”)을 잠재적인 게임 체인저로 보고 있지만 과거의 다른 새로운 기초 기술 발전과 마찬가지로 새로운 문제와 잠재적인 법적 리스크가 존재할 수 밖에 없다. 

 

 

앞으로 2편에 걸쳐 ChatGPT로 대표되는 GAI의 등장과 함께 새롭게 대두되는 법적 리스크들에 대하여 한번 살펴보고자 한다. 

 

 

기밀 유지 (Confidentiality) 이슈

 

일단 가장 먼저 떠오르는 문제로는 기밀 유지에 대한 리스크가 있다. 많은 기업들이 비즈니스 전략, 소프트웨어 또는 기타 내부적 지식재산 등을 더욱 발전시키거나 개선하기 위해 GAI를 사용하고자 하는 수요가 많지만, GAI에 기밀 정보를 입력하는 것은 기밀 유지와 관련하여 여러 가지 위험을 수반할 수 있다.

GAI는 제공된 입력을 통해 학습할 수 있기에, 입력된 기밀 정보의 일부가 어떤 형태로든 후속 사용자에게 제공될 여지가 있다. 일례로, 대부분의 이용자들이 제대로 읽어보지 않았을 가능성이 높지만, ChatGPT 약관에 따르면, “귀하는 OpenAI가 서비스를 제공하고 유지하는 데 도움을 주기 위해 당사가 서비스를 개발하고 개선할 수 있도록 귀하의 콘텐츠를 사용할 수 있다는 데 동의한다”는 내용이 포함되어 있다. 

실제로 많은 기업들은 보안 및 기밀 문제로 인해 GAI에 회사의 중요한 비밀 정보들을 입력하지 말 것을 직원들에게 교육하고 있다. 또한, GAI의 API를 사용 중이면서 이러한 보안 문제가 우려된다면 GAI의 옵트-아웃(opt-out) 기능을 이용할 것을 고려할 수 있다. 특히 어떤 비밀 정보는 제3자로부터 라이선스를 받았을 수도 있는데 이를 임의로 GAI에 입력할 경우 계약상 기밀 유지 조건 또는 사용 제한이 적용될 수 있고, 결과적으로 이러한 계약상 비밀유지 의무를 위반하는 것이 될 수 있다.

한편, 일부 기업들은 영업비밀로서 보호하는 기술상 및 상업상 정보(ex. 코카콜라의 제조법 등)가 있을 수 있는데, 영업비밀로서 인정이 되기 위해서는 비밀성을 유지하기 위한 합리적인 조치를 취하는 것이 필요하다. 그런데 만약 GAI에 회사의 영업비밀을 입력하게 되면 해당 정보에 대한 비밀 유지 노력이 간과되었다고 평가받을 여지가 있고 따라서 영업비밀로서 인정받지 못할 가능성이 있다.

​​

 

 

지식재산권 (Intellectual Property) 이슈

 

GAI는 지식재산권 분야에서도 다양한 이슈들을 만들어 내고 있다. 대표적인 예로, 웹 스크래핑을 통해 GAI를 학습시키는 것이 타인의 지식재산권을 침해하거나 Copyright Management Information (저작권 관리 정보) 제거에 대한 미 연방 저작권법(DMCA) 위반에 해당하는지, 만일 그렇다면 해당 GAI 사용자에게 어떤 식으로든 책임을 물을 수 있는지 등이 있다. 

 

더 나아가 GAI 사용이 타인의 저작권을 침해하는 경우에도 공정이용(fair use)이나 묵시적 사용허락(implied license)이 인정될 것인지, GAI를 통하여 생성된 소프트웨어와 같은 결과물들의 최종적인 소유권은 누가 가지게 될 것인지 등은 여전히 명확한 답이 나와있지 않다. 아직까지 뚜렷한 가이드라인이 없는 편이라 이제 앞으로 많은 소송들이 진행됨에 따라 조금 더 구체적인 원칙들이 나타날 것으로 기대하고 있다. 그 전까지는 널리 합의된 기본적인 원칙들에 근거하여 판단하는 것이 중요할 것이다. 

일단, GAI가 생성한 콘텐츠(특히 AI가 생성한 미술작품 또는 이미지 등)에 대한 저작권을 주장하지 않는 것이 바람직하다. ChatGPT의 약관에 따르면 “당사자간 및 관련 법률이 허용하는 범위 내에서 귀하는 모든 입력 정보를 소유하며, 본 약관을 준수하는 조건으로 OpenAI는 출력물에 대한 모든 권리, 소유권 및 이권을 귀하에게 양도합니다.”라고 규정하고 있다. 이러한 출력물(output)에 대한 라이선스는 출력물(output)에 대한 OpenAI의 권리를 광범위하게 사용하도록 허락하는 것이지만, ChatGPT가 출력물(output)에 대한 어떠한 권리를 가진다는 것을 의미하는 것은 아님에 주의해야 한다.

현재 미국 저작권 사무소 (U.S. Copyright Office) 내부지침에 따르면, 미국 저작권 사무소는 “인간 저작자의 창의적인 입력이나 개입 없이 무작위 또는 자동으로 작동하는 기계 또는 단순한 기계적 프로세스에 의해 생성된 저작물은 등록을 허용하지 않는다.”라고 명시되어 있다. 그럼 여기서 우리가 마주하는 질문은 저작물이 기본적으로 인간의 저작물이며 컴퓨터 또는 기타 장치가 단지 보조적인 도구에 불과한 것인지, 또는 저작물의 전통적인 저작 요소들이 실제로 사람이 아닌 컴퓨터에 의해 구상되고 실행되었는지를 구분할 수 있는지, 그리고 만약 구분할 수 있다면 어떻게 이를 구분할 수 있는지 등이 있을 수 있다. 

아무튼 현재까지는 위 정책에 따라 GAI가 생성한 콘텐츠는 저작권 보호 대상이 되지 않다는 것을 명심할 필요가 있겠다. 

 

 

 

각 주별 인공지능 규제의 등장

 

미국을 포함한 대부분의 국가에서 인공지능 사용을 다루는 다양한 법률과 규정이 제정 단계에 있으며, 실제로 여러 국가에서는 시행단계에 들어섰다. 

예를 들어, 캘리포니아의 경우 챗봇(Chatbot) 법 (캘리포니아 Business and Professions Code 17940)이 제정되었는데, 일부 온라인 상 소비자들과의 의사소통 과정에서 소비자가 실제 사람이 아닌 챗봇과 소통하고 있다는 사실을 명확하고 눈에 띄도록 공개할 것을 요구하고 있다. 또한 뉴욕시와 여러 주에서는 고용과 관련하여 자동화된 의사결정 시 준수해야 하는 규정을 제정한 바 있다. 

 

또한, 미국 연방거래위원회(FTC)와 각 주 법무장관은 “불공정하거나 기만적인(unfair and deceptive)” 거래 관행에 대한 집행 권한을 갖고 있기 때문에 해당 조직들은 GAI 사용이 이러한 법률을 준수하고 있는지, GAI를 이용하여 소비자들에 대한 불공정하고 기만적인 거래가 발생하지는 않는지 계속 모니터링 하고 있음에도 유의할 필요가 있다. 실제로 FTC는 지난 달 ChatGPT 개발사인 OpenAI에 대한 조사를 착수하면서 ChatGPT가 허위정보를 생성하여 사람들에게 피해를 입혔는지 여부를 조사할 것이라고 밝힌 바 있다. 

 

 

 

 

[LA 총영사관 법률 뉴스레터] ChatGPT의 등장에 따른 법적 리스크 (Part 2)

Disclaimer: 아래의 내용은 오로지 일반적인 정보를 제공할 목적으로 작성된 것으로서 특정 고객을 위한 법률자문의 목적으로 작성된 것이 아니므로 해당 정보에 기반하여 조치를 취하시기에 앞서 반드시 변호사에게 자문을 구하시기 바랍니다.

 

지난 1편에 이어 ChatGPT와 같은 생성형 인공지능(Generative AI, 이하 “GAI”)의 등장과 함께 새롭게 대두되고 있는 법적 리스크들을 추가로 살펴본다. 

 

 

결과물의 신뢰성 이슈

GAI의 결과물에 대한 신뢰성 이슈는 대표적으로 제기되고 있는 문제 중 하나이다. GAI는 여전히 여러 가지 제약 조건 아래 개발 중인 기술이며 당연히 완전한 기술이 아님을 명심해야 한다. ChatGPT 개발사인 OpenAI는 직접 “ChatGPT는 때때로 그럴듯하게 들리지만 부정확하거나 무의미한 답변을 작성하기도 한다”고 명시하고 있다. 따라서 현재 ChatGPT 등의 GAI는 누구든 쉽게 사용할 수 있지만 GAI를 통해 산출된 결과물을 신뢰하여 행동하기 전에 결과물의 정확성과 진실성을 확인하는 것은 매우 중요하다.

 

1) 편향적 및 차별적 결과물

GAI가 생성한 분석에는 기존에 학습되고 훈련을 받은 편향적 또는 차별적 콘텐츠가 반영될 수 있다. 사용자는 ChatGPT 및 기타 GAI 결과물의 진위 여부를 확인하는 것과 함께 이러한 출처 자료들에 대한 알고리즘 마이닝(algorithmic mining)으로 인한 차별적이거나 편향된 진술 또는 결론에 주의를 기울일 필요가 있다. 이는 특히 고용 차별법(employment discrimination laws) 및 인공지능을 활용한 직원 고용을 규제하는 법률에 저촉될 우려가 있다.

 

2) GAI가 생성한 콘텐츠에 대한 보험 적용

변호사 등의 전문직, 콘텐츠 제작자 및 퍼블리싱 회사들은 타인의 지식재산(IP)에 대한 침해 및 기타 리스크로부터 보호받기 위하여 전문인 배상책임 보험(errors and omissions liability insurance) 보험에 가입하는 경우가 종종 있다. 이러한 보험 가입시 기업 내부의 콘텐츠 제작의 관행에 대한 검토와 진술을 요구하는 경우가 있는데, GAI로 생성된 콘텐츠는 전통적인 전문인 배상책임 보험의 커버리지 안에 포함될 수 있는지 여부에 대하여 논란이 발생할 수 있다.

 

3) 연방 통신 품위법(CDA) 적용

연방 통신 품위법(CDA: Communications Decency Act) 제230조는 그 범위와 적용 범위와 관련하여 많은 논란이 있는데, 특히 온라인 비즈니스에서 GAI로 생성된 콘텐츠가 사용되는 경우 해당 콘텐츠와 관련하여 CDA가 적용되는지 여부와 그 범위에 대하여 아직 명확한 해석이 존재하지 않는다. 

CDA 제230조는 대화형 컴퓨터 서비스의 제공자 또는 사용자는 해당 서비스를 이용하는 다른 정보 콘텐츠 제공자가 제공한 정보의 게시자(publisher) 또는 발화자(speaker)로서 책임을 지지 않도록 하고 있다.

 GAI를 통하여 생성된 콘텐츠가 다른 정보 콘텐츠 제공자(보통은 자연인)가 제공한 정보로 간주되지 않아 서비스 제공자에게 직접 책임을 물을 수 있는 경우가 발생할 수 있는지에 대하여 명확한 가이드라인이 아직 존재하지 않는다. 

특히, GAI 콘텐츠가 실시간으로 생성되는 경우, 예를 들어 고객이나 직원과 챗봇 사이의 대화에서 생성된 경우에는 해당 콘텐츠를 어떻게 식별하고 간주할 것인지에 대하여 사전에 명확히 규정하고 이를 고객이나 직원들에게 사전에 적절히 공지하였는지 여부가 중요하다. 

 

4) GAI 생성 결과물의 디스커버리 범위

GAI가 생성한 결과물에 대하여 소송 중 디스커버리 범위에 해당할 것인지에 대한 논의가 필요하다. 특히, 앞으로는 각 기업마다 문서 보존연한이나 보관 방식 등을 규정한 내부 문서에서 GAI 생성 문서에 대한 별도의 카테고리를 두어 관리를 하는 것이 필요해질 것이다. 

 

 

GAI의 사용과 주의 사항

ChatGPT 등의 GAI는 현재 이미 광범위하게 사용되고 시작했다. 기업들은 GAI로 인해 발생하는 문제를 평가하여 조직에 어떠한 위험을 초래할 수 있는지를 검토하고 판단해야 한다. 

실제로 미국 국립표준기술연구소(NIST: National Institute of Standards and Technology)가 최근 발표한 인공지능 리스크 관리 프레임워크(Artificial Intelligence Risk Management Framework) 1.0에 따르면, 리스크의 허용 범위 및 수준은 시간이 지남에 따라 AI, 정책 및 규제들이 진화함에 따라 변경될 수 있다.

 

NIST 프레임워크는 조직이 AI에 따른 리스크를 관리, 매핑, 측정 및 관리하기 위한 향상된 프로세스를 개발하고 AI 사용 및 성능을 감독하는 직원의 역할과 책임을 명확하게 정의할 것을 권장하고 있으며 다음과 같은 조치들을 준비할 것을 권고하고 있다. 

  • 기업 내 또는 사용자 커뮤니티에 GAI 사용을 허용한다는 메시지와 함께 동시에 GAI의 권한과 위험성을 설명하고 커뮤니티 구성원들이 GAI 사용에 있어 주의할 수 있도록 관련 커뮤니티에 메시지를 전달할 것
  • 특정 업무들에 대하여 GAI의 사용을 구체적으로 제한하는 정책을 시행하고 구성원들에게 공지할 것 
  • 외부 비즈니스 파트너들에게도 동등한 수준의 GAI 사용 정책을 공지하고 준수하도록 공지할 것
  • GAI의 사용 및 사전 승인이 필요한 경우들을 사전에 규정하여 구성원들에게 공지할 것
  • GAI의 사용 내역을 내부적으로 추적하고 일부 GAI 생성 콘텐츠들에 대하여는 전문가의 추가적인 검토를 받도록 할 것
  • GAI의 사용 및 GAI 생성 결과물을 외부에 공개할 경우 적절한 면책조항을 포함 시킬 것 

 

현재 우리가 바라보고 있는 GAI의 태동은 마치 예전에 e-commerce나 웹 2.0의 초기와 같은 역사적인 기술적 혁신의 시대를 이제 막 시작했을 가능성이 높다. 그리고 이 글에서 다룬 이슈들 외에도 향후 GAI 기술과 서비스들이 발전함에 따라 새롭게 등장하고 해결해야 할 문제들은 더 많아질 수 있다. 

 

중요한 것은, 모든 기업들은 위에서 언급한 GAI의 등장과 함께 발생할 수 있는 법적 리스크 중 어떤 부분이 나의 비즈니스에 문제를 야기할 수 있는지 늦지 않게 고민을 시작하는 것이고 지금 바로 내부적으로 적절한 규정을 마련하여 이러한 리스크에 대비할 수 있도록 하는 예방적인 자세라 할 수 있다.

 

인포유앤컴퍼니, 두산 디지털이노베이션과의 AI Chat 프로젝트 성료

 
 

인포유앤컴퍼니는 마이크로소프트의 Azure OpenAI 서비스를 적용하여 두산 디지털이노베이션 (Doosan Digital Innovation)의 Doosan AI Chat 프로젝트를 성공적으로 마무리하였다고 발표했다.

Doosan AI Chat은 사내망에서 활용 가능하도록 마이크로소프트 팀즈(Microsoft Teams) 인앱 형태로 구축되었으며 9월 1일에 전사 시범 서비스를 오픈하여 사용 중에 있다고 밝혔다. 챗GPT(ChatGPT)의 데이터 보안 문제 해결을 위해 프라이빗한 환경에서 Azure OpenAI를 구현하여 사내 민감 정보는 유출되지 않도록 프로젝트가 진행되었다. 안전한 환경에서 AI와 대화를 통해 쉽고 빠르게 업무 효율을 높일 수 있으며, 아이디어 제안, 표 생성, 언어 번역, 긴 글 요약, 코드 생성 등 다양한 용도로 AI Chat 서비스를 활용할 수 있다.

오픈 AI(OpenAI)의 챗GPT(ChatGPT)를 시작으로 전 세계적인 생성형 인공지능(AI) 열풍이 불면서 AI기술을 도입하고자 하는 기업들의 수요가 늘어나고 있다. 이에 발맞춰 인포유앤컴퍼니는 두산뿐만 아니라 다양한 기업을 대상으로 기업별 요구 사항에 맞춘 최적화된 Azure OpenAI 설루션을 구축하였고 고객사례를 확보해 나가고 있다. 인포유앤컴퍼니가 개발한 기업 내부 데이터 통합용 프라이빗 GPT는 기업들의 데이터 보안과 내부 데이터 활용을 위해 특별히 설계되었다. AI Chat을 활용하면 기업의 데이터를 안전하게 보호하는 동시에 데이터를 활용한 업무 효율성을 극대화할 수 있으며, 이를 통한 자연어에 대한 이해와 생성 능력은 업무 프로세스를 자동화하는데 적용될 수 있다.

 

인포유앤컴퍼니는 이러한 성공적인 프로젝트를 토대로 Azure OpenAI 기반 새로운 솔루션의 공식 출시를 앞두고 있다. 설루션의 이름은 ‘BRAIN X GPT’로 인포유앤컴퍼니의 자체 통합 포탈인 ‘브레인 포탈(Brain Portal)’의 명칭은 살리면서 오픈 AI의 챗GPT 모델을 핵심 기술로 활용한 '전문가(Expert)’ 버전이라는 의미를 포함하고 있다.

업체 이종복 대표는 "Azure OpenAI 서비스를 내외부의 다양한 정보를 기반으로 한 업무에 적용, 업무생산성을 극대화할 수 있도록 기업용 AI 솔루션을 고도화하여 향후 다른 기업에도 제공할 수 있도록 지속적인 개발을 해 나갈 예정이다. 기업들이 안전하게 AI 기술을 활용하여 비즈니스 성장을 이뤄내고 가치를 만들어낼 수 있도록 지원하는 것을 목표로 하고 있다"라고 전했다.

이어 "인포유앤컴퍼니의 행보는 디지털 전환(DX, Digital Transformation)을 나아가 AI 전환(AI Transformation)에도 큰 기여를 할 것으로 예상된다. 기업들의 빅데이터와 인공지능에 대한 수요가 높아짐에 따라 오픈 AI 기술 경쟁력을 강화하여 시장 내 우위를 선점할 수 있도록 노력하겠다"라고 밝혔다.

 
728x90
반응형
LIST