본문 바로가기

say와 AI 챗봇친구 만들기 보고서

AI의 역사

728x90
반응형
SMALL

AI의 역사

‍   History of Artificial Intelligence - Javatpoin

 

1차 AI Boom - GOFAI

AI에 대한 관심이 본격적으로 고조된 시기는 1950년대 중반부터입니다. 1958년, AI 연구를 위한 최초의 프로그래밍 언어인 LISP (List Processing의 약어)가 탄생했습니다. 당시 쏟아져 나온 각종 로봇 프로세스들은 현대의 자율주행이나 로보틱스, 챗봇 등의 전신이 되었습니다.

이때 Alan Turing의 저서인 <Machinery and Intelligence>에서 처음 등장한 Turing Test (튜링 테스트)는 이후 전문가들이 컴퓨터 지능을 측정하는 데에 사용하는 지표가 되었습니다.

첨부파일
다운로드
</div|filename="" size="" data-ke-align="alignCenter"|_##]

 

 

 

 

 

 

 

 

 

2차 AI Boom - Expert systems

첨부파일
다운로드
</div|filename="첨부파일" size="size16" data-ke-align="alignCenter"|_##]

 

 

 

 

 

 

 

 

 

 

 

 

Generative AI는 텍스트, 이미지 또는 음악과 같은 새로운 콘텐츠를 생성할 수 있는 인공지능의 한 유형입니다. Generative AI 모델은 기존 콘텐츠의 대규모 데이터 세트를 학습하고, 이 데이터를 사용하여 해당 콘텐츠가 생성되는 방식의 패턴과 규칙을 학습했습니다. 최종적으로, Generative AI는 학습된 콘텐츠와 유사한 새로운 콘텐츠를 생성할 수 있게 됩니다.

 

ChatGPT는 출시 40일 만에 이용자수 1천 명을 달성했습니다. 2023년 2월 기준 추정 사용자 2억 명을 넘겼으며, 구독자는 100만 명을 달성했습니다. 업계에 따르면 국내 챗GPT 사용자 수는 220만 명 수준으로 IT 대기업부터 스타트업까지 광범위하게 활용되고 있다고 합니다. 최근에는 보안 취약점이나 시장 선점 효과 등을 고려해, 자체 생성형 AI 서비스 개발에 뛰어드는 기업도 많다고 하죠. 빠른 시일 내로 ChatGPT와 견줄 만한 새로운 Application의 등장을 기대하셔도 좋을 것입니다.

산업 별 인공지능 활용

전문가 시스템과 자연어 처리, 음성 인식 등의 다양한 기능이 통합된 AI 애플리케이션은 우리 생활에 ‘가상 비서’라는 이름으로 가까이에 있습니다. 최근 일상생활뿐만 아니라 비즈니스 영역에서도 AI를 적극적으로 사용하고 있습니다.

마케팅 및 금융

  • 퀀트, AI 주식 거래, 원자재/주식 가격 예측
  • 대량의 재무 데이터를 분석하고 패턴과 추세를 기반으로 거래를 수행
  • 고객 경험 향상, 고객 리뷰 분석, 고객 요구 사항 분석

교육 및 헬스케어

  • 단순 반복 작업의 자동화, 개인화된 학습, 스마트 콘텐츠
  • 의학 문헌 분석, 보조 의사의 역할

자율주행과 내비게이션

  • 자율주행 플랫폼 구축, 자율주행 카메라
  • 운전자 모니터링, CCTV‍
  • Object, Audio, Video Detection
  • 로보틱스와 RPA

2021년 국내 기업의 인공지능 도입 실태 조사 설문에 따르면 53%가 전문 인력 부족으로 AI 도입에 어려움을 겪고 있다고 답변했습니다. 데이터 업무에 투입되어야 하는 평균적인 인력은 24.5명으로 적지 않은 숫자입니다. 그러나 실무를 볼 수 있는 인재가 부족하니 기업에서 자체적으로 AI 엔지니어를 고용하기란 쉽지 않은 상황이죠.

 

또한 모델을 충분히 학습시킬 데이터가 부족하다는 문제점이 있습니다. Raw-data가 있다고 하더라도 가공하는 과정에서 품질 저하 및 손상의 위험이 있거나, 개인정보를 포함하고 있을 경우 별도의 가공이 필요합니다. 저품질의 데이터로 학습한 모델은 그만큼 성능이 떨어질 수밖에 없으니 시장 출시까지 오래 걸리거나 프로젝트 자체가 백지로 돌아가기도 합니다. 이러한 문제로 한국은 아직 AI 도입이 낮다고 볼 수 있습니다.

AI 인공지능에 대한 논란과 오해

학습 데이터의 저작권 논란 

최근 미국의 두 소설가가 자신의 책이 ChatGPT의 훈련에 무단으로 사용되었다며 OpenAI를 상대로 소송을 제기했습니다. 미국 로펌에서 저작권과 인터넷 이용자의 프라이버시 침해에 대한 소송 이후 두 번째 소송입니다.

유럽 연합은 생성 인공지능 개발자가 시스템 교육에 사용된 모든 저작권 자료를 공개하도록 요구하는 새로운 법률을 고려하고 있습니다. 이 법안은 위험 수준에 따라 생성 AI 도구를 분류하고, 고위험 AI 도구에는 특히 더 높은 투명성 요구 사항을 적용할 예정이라고 합니다. EU는 AI 혁신을 방해하지 않는 선에서, AI의 잠재적 피해로부터 시민을 보호하기 위한 목적으로 법안을 제정하고 있다고 밝혔습니다.

EU의 AI 법은 AI 규제의 중요한 기준이 될 것으로 주목받고 있습니다. EU는 만약 이 법안이 통과된다면 AI가 안전하고 책임감 있는 사용에 도움이 될 것이라 기대하고 있습니다.

AI 인공지능 응용 분야

세계경제포럼(WEF)은 AI로 인해 무려 1,400만 개의 일자리가 없어질 것이라는 전망을 내놓았습니다. 이는 세계 일자리의 2%에 해당하는 수치입니다. 급속도로 발전하는 AI 기술이 노동시장에 큰 변화를 가져오면서 은행 창구 직원이나 데이터 입력원 등 특정 직무에서 대량 실직 사태가 벌어질 것이라는 우려를 제기했습니다.

실제로 많은 일자리가 AI로 대체되고 있습니다. 단순 반복 업무는 굳이 사람을 쓸 필요 없이 AI를 통해 일상 업무를 자동화할 수 있기 때문입니다. 반면, AI가 일자리 숫자를 줄이기보다는 임금 하락을 부를 수 있다는 지적도 있습니다. 자동으로 길을 찾아주는 GPS나 우버(Uber)와 같은 플랫폼이 도입되면, 운전자들이 줄어들기보다는 약 10%의 임금 하락을 겪게 될 것이라는 전문가들의 의견이 있었습니다.

결론: 계속 발전하는 인공지능, 어떤 아이디어로 활용할 것인가가 중요

이미지 속에서 객체를 탐지하고 분류하는 것부터 시작해, 자율주행까지 인공지능은 다양한 분야에서 활약하고 있습니다. 어느 분야든 ‘인공지능’이라는 키워드가 붙으면 뛰어난 효율성과 정확성을 연상시킬 뿐만 아니라, 사용자의 목표 달성을 위해 최첨단 기술로 구동된다는 인식을 줍니다. 또한 사용자들이 최고의 기술을 사용하고 있다는 느낌을 받을 수 있으며, AI가 제공하는 가능성에 대해 기대감을 가질 수 있습니다.

하지만 인공지능을 통해 화제성을 얻는 것보다 장기적으로는 사용자의 신뢰도를 사는 것이 중요합니다. 출시한 서비스나 제품이 성공적인 BM으로 정착하기 위해서는 어떻게 인공지능을 활용할 것인지에 대한 고민이 필요합니다. 이는 모델과 학습 데이터 구축 과정까지 구체적인 연구 및 설계가 필요한 과정입니다.

 

데이터헌트는 비즈니스에 AI를 활용하기 위해 고객사의 산업 구조에 대해 적극적으로 이해하고자 노력합니다. 또한 고객사와 원활한 소통을 통해 필요한 데이터가 무엇인지, 그리고 모델의 핵심 기능은 무엇인지 파악하고 이를 구현합니다. 고성능 모델의 첫 시작은 고품질 데이터이기 때문입니다.

Generative AI 역사와 Landscape

AI Training runs, estimated computing resources used floating point operations, selected systems, by type, log scale

Generative AI는 인공지능 역사 중에서도 오랜 기간 연구된 분야로, 1960년대 챗봇 Eliza에서 처음 개발되었습니다. 숨겨진 마르코프 모델(HMM)이나 가우스 혼합 모델(GMM)과 같은 이론은 1950년대에 처음 개발되었죠. 이안 굿펠로우의 GAN이 등장한 후, VAE(Variational Autoencoder)와 같은 다양한 Generative AI 알고리즘이 등장하여 더욱 발전해 왔습니다.

GenAI의 지형을 바꾼 몇 가지 중요한 순간을 소개합니다.

  • WaveNet(2016)
    딥마인드의 WaveNet은 Audio Generative Model의 발전에 획기적인 변화를 가져왔습니다. 웨이브넷은 실제와 같은 사람의 음성을 생성할 수 있었으며, 이를 통해 더욱 인간과 유사한 AI 챗봇이나 비서 등 고도로 정확한 텍스트 음성 합성을 구현할 수 있는 길이 열렸습니다.
  • Progressive GANs(2017)
    엔비디아가 개발한 프로그레시브 GAN은 고해상도의 사실적인 이미지를 생성하는 데 있어 전환점이 되었습니다. GAN은 훈련 과정에서 레이어를 점진적으로 추가하여 전례 없는 디테일과 선명도를 갖춘 이미지를 생성할 수 있게 되었습니다.
  • GPT-2 및 GPT-3(2019, 2020)
    OpenAI의 사전 훈련된 생성형 트랜스포머(GPT) 모델은 텍스트용 GenAI 분야에서 큰 도약을 이루었습니다. 일관되고 문맥에 맞는 문장을 생성하는 능력을 입증하여 작문 지원부터 챗봇에 이르기까지 다양한 애플리케이션에 유용하게 활용될 수 있었습니다.
  • DALL-E(2022)
    2022년 OpenAI는 DALL-E를 대중에게 공개했습니다. DALL-E는 자연어 프롬프트에서 디지털 이미지를 생성할 수 있는 딥러닝 모델입니다.
  • ChatGPT(2022)
    OpenAI는 GPT 기반의 대화형 챗봇인 ChatGPT를 출시했으며, 이 플랫폼은 5일 만에 사용자 100만 명을 달성했습니다.
  • GPT-4 (2023)
    최신 GPT 모델은 더 정확하고 고급 추론 기능을 갖춘 것으로 알려졌습니다. 프리미엄 ChatGPT 사용자는 이제 챗봇 내에서 GPT-4에 선택적으로 액세스할 수 있습니다.

위의 Milestone을 통해 Generative AI는 계산 능력, 데이터 품질 및 학습 안정성과 관련된 문제를 극복하고 현재의 역량에 더 가까워졌습니다.

👉 ChatGPT3와 GPT-4의 원리와 성능 비교

ChatGPT vs GPT4 특징과 차이점

 

ChatGPT vs GPT-4 구조와 성능 차이

 

 

ChatGPT와 이번에 공개된 GPT-4의 성능과 특징을 살펴보고 기술적인 특징과 한글 답변을 예시로 어떤 차이가 있는지, 그리고 아직까지 풀지 못한 문제는 무엇인지 짧게 설명하도록 하겠습니다.

 

ChatGPT의 파급력

OpenAI는 2020년 5월, <Language Models Are Few-shot Learners>라는 혁신적인 논문을 발표했습니다. 이후 ChatGPT를 공개해서 세상을 깜짝 놀라게 했습니다. 물론 LLM(Large Language Model)이라는 분야에서 GPT-1부터 꾸준히 연구를 진행한 끝에 얻은 결과물이지만 필자도 정말 많이 놀랐습니다.

 

ChatGPT는 인터넷에서 얻을 수 있는 거의 모든 데이터로 훈련되었으며 번역, 질의응답, 미세작업을 포한한 다양한 자연어 처리 (NLP, Natural Language Processing) 작업에서 최첨단 모델 (SOTA, State-of-the-art)를 능가하는 엄청난 성능을 보여주었습니다.

언어가 필요한 모든 분야에 적용될 수 있을 만큼 성능이 대단했는데, 단순한 대화를 넘어 각종 전문 분야에서도 막힘이 없고 유머와 같이 창의성이 필요한 내용에서도 사람들을 놀라게 했습니다. 실제로 다양한 분야에서 ChatGPT를 도입하여 새로운 서비스를 만들어냈습니다(심지어 이 서비스를 만들기 위해 필요한 기획, 코딩 등도 ChatGPT의 힘을 빌렸다는 이야기가 들립니다). 한편으로는 해킹이나 언어폭력과 같은 비윤리적 활용 사례도 들리는 등 사회적으로 많은 이야기를 낳았습니다.

 

저 또한 ChatGPT와 많은 이야기를 나눴는데 딱딱한 말투만 좀 고친다면 아주 박식한 실제 사람과 대화한다는 느낌마저 받았습니다.

👉 AI의 정의, 원리, 역사, 활용사례에 대한 총 정리

ChatGPT 와 GPT-4

이렇게 훌륭한 자연어 처리와 생성이 가능한 generative AI, ChatGPT의 후속작으로 나온 GPT-4는 기존과 무엇이 같고 무엇이 다를까요?

ChatGPT와 GPT-4의 학습 방법 차이

둘은 기본적으로 GPT라는 이름을 달고 나오기에 구조에서 큰 차이가 없습니다. 그동안의 GPT 역사를 파악하면 알 수 있는 부분은 버전이 올라갈수록

  • 모델 구조에 약간의 수정이 있었고
  • 더 정교하게 학습 방법을 설정했으며
  • 더 많은 수의 레이어를 쌓아 모델 사이즈가 기하급수적으로 증가

했습니다.

GPT는 Transformer 구조를 이해하신다면 이야기가 더 쉬워지는데, 일단 입력을 받으면 하나씩 순차적으로 말을 내뱉는 decoder-only 구조를 갖고 있습니다(일단 뭐든 간에 말을 뱉고 그다음 말을 생각합니다). ChatGPT와 GPT-4는 아마도 이 구조를 벗어나지 않았을 것으로 추정됩니다.

 

두 모델 모두 위에서 말한 구조의 네트워크를 엄청나게 많은 텍스트로 학습합니다. 우리는 이 과정을 Pre-training이라 부르고, 그다음 모델의 디테일을 살리는 지도 학습(Supervised Learning)을 수행합니다. 보통 Pre-training을 마친 모델을 재학습하는 과정을 Fine-tuning 한다고 표현합니다. 정리하자면,

  1. 수많은 텍스트를 통해 모델을 Pre-training (비지도 학습, unsupervised learning)
  2. 정답이 있는 데이터를 통해 모델을 Fine-tuning (지도 학습, supervised learning)

Training of ChatGPT (이미지출처)

Training of GPT4 (이미지출처)

 

728x90
반응형
LIST