실시간 뉴스
  • [IT과학칼럼] 챗GPT, 강력모멘텀 등장

챗GPT(ChatGPT)로 전 세계가 뜨겁다. 챗GPT는 오픈AI(Open AI)에서 공개한 챗봇 서비스로, 알파고처럼 ‘특정 문제를 해결’하는 것을 넘어 다양한 문제에 대응해 사람처럼 ‘포괄적인 문제해결능력’을 가지고 있다는 점에서 주목받고 있다.

이미 많은 유튜버가 올린 챗GPT의 활용법에 대한 다양한 영상을 쉽게 접할 수 있고 학계에서도 논문저작의 도구로 활용하는 것을 인정하는 등 일반인부터 전문직 종사자에 이르기까지 챗GPT로 대표되는 생성 AI로부터 촉발된 변화는 빅테크, 스타트업, 투자자들에게 무한한 가능성을 시사한다. 사실 IBM 왓슨 헬스 부문이 수익을 창출하지 못하면서 인식 및 분석용 AI에 대한 의구심이 침체로 이어지는 듯했으나 챗GPT의 등장으로 사용자의 특정한 명령에 근거해 결과를 생성해내는 생성 AI가 이러한 우려를 불식시키면서 AI의 대중화에 한 걸음 다가서고 있다.

시장조사기관인 마켓앤마켓에 따르면 2021~2022년 글로벌 챗봇시장의 가치는 2.9억달러로, 2026년께 10.5억달러의 시장 규모를 성장할 것으로 예측된다. 이러한 예측은 챗봇시장만을 고려한 소극적 시장 규모로 판단되며 생성 AI의 개선을 위한 투자의 확대와 인간의 창의력이 요구되는 영역에도 긍정적인 영향을 미친다고 가정할 때 시장 규모는 더 확대될 것으로 보인다.

생성 AI는 다른 AI 모델들과 마찬가지로 한계가 있는데 오픈AI에 따르면 챗GPT는 때때로 피해를 주는 지시에 반응하거나 차별적인 행동을 보일 수 있으며 그럴듯하지만 부정확한 응답을 할 수 있다고 한다. 데이터의 편향과 학습데이터의 한계는 출력된 결과물의 신뢰성 문제로 귀결된다. 이를 인식하듯이 영국의 대형 로펌은 생성형 AI 질문을 논리적으로 구성하는 사람, 즉 챗GPT와 잘 대화하는 사람을 구하는 공고를 내기도 했다. 즉 사용자는 어떠한 맥락에서 텍스트가 출력되는지 비판적인 시각과 AI를 잘 활용할 수 있는 역량이 필요하다는 것이다.

학계나 교육계에서도 챗GPT를 윤리적으로 활용하는 것에 대한 지침이 아직 명확하지 않고 최적으로 활용할 수 있는 교육이 필요하다고 주장하고 있다. 물론 특정 분야에서 자체 데이터를 기반으로 일반 모델을 변경해 정보의 편향을 줄이면서 정확도를 높일 수 있다 하더라도 창의성이나 공감과 같은 인간의 개입이 필수적인 영역에서의 한계를 인정하고 실제 사람이 생성 AI 모델의 출력을 게시하거나 활용하기 전에 검토할 필요가 있다. 더불어 생성 AI가 가진 에너지 비용 및 효율성 문제, 정확도 문제, 잦은 오류, 데이터로 인한 프라이버시 이슈도 현재진행형이다.

그럼에도 새로운 성장동력으로서 챗GPT의 매력도는 커질 것이다. 높은 정확도가 요구되는 인식, 분석 AI가 적용되는 분야보다 사람의 개입이 필요한 창의성이 요구되는 생성 AI가 적용되는 분야에서 발생되는 오류들에 대해서는 비교적 관대한 부분도 매력도를 높이는 요인 중의 하나다.

지난 1995년 닷컴버블 시기에 등장한 인터넷으로부터 2007년 금융위기에 등장한 스마트폰에 이르기까지 IT업계가 위기에 빠질 때마다 희망이 돼준 것은 기술과 산업의 판도를 흔들 수 있는 강력한 모멘텀이었다. 챗GPT로 재점화된 AI가 전례 없는 글로벌 복합 위기를 경험하고 있는 국내외 혁신·경제 주체들에 또 다른 강력한 모멘텀으로 기회의 공을 쏘아 올리길 기대해본다.

김은선 한국과학기술정보연구원(KISTI) 데이터분석본부장

nbgkoo@heraldcorp.com

맞춤 정보
    당신을 위한 추천 정보
      많이 본 정보
      오늘의 인기정보
        이슈 & 토픽
          비즈 링크