기후위기시계
실시간 뉴스
  • 자폐아 예방에 난민치료…‘인류애’로 진화하는 AI
정부 7년간 100억 이상 투입

지난 2011년 한국인 과학자의 연구 결과에 전 세계가 주목했다.

당시 김영신<사진> 미국 예일대 의대 소아정신과 교수는 경기도 일산 고양시 7~12세 학생 5만5266명 대상으로 자폐장애 조사를 실시해 발표했다. 세계 최초로 진행한 자폐장애 전수조사였다. 조사 결과 미약한 증세를 보이는 자폐아들까지 자폐증을 앓고 있는 것으로 밝혀졌다. 이는 미국정신과저널에 게재됐고, 미국 주요 언론들은 ‘숨어 있는 자폐환자가 예상보다 훨씬 많을 수 있다’며 대서특필했다.  ▶관련기사 2면

그로부터 8년 후. 과학기술정보통신부와 정보통신기획평가원의 2019년 연구과제에 ‘영유아ㆍ아동 발달장애 조기 선별 위한 인공지능(AI) 기술 개발’이 포함됐다. 제안요청서(RFP)에는 김 교수 연구결과가 소개됐고, ‘조기 진단이 절실한 자폐아의 지속적 증가’로 정부 지원이 필요하다고 명시됐다. 정부는 세계 최초를 목표로 앞으로 7년 동안 이 기술 개발에 100억원 이상의 예산을 투입할 계획이다.

자율주행, 홈서비스, 스마트교육, 스마트팩토리 등 편리한 인간의 삶을 목적으로 출발한 AI가 인간의 본질적인 문제를 해결하는 단계로 진화하고 있다.

글로벌 무대에선 이미 AI를 ‘도구’가 아닌 ‘존재’로 간주해 인간과 AI의 상호작용을 위한 연구가 진행되고 있다.

AI의 윤리 제정까지 앞두고 있다.

AI로 자폐장애를 선별하는 기술의 핵심은 사람에게서 나오는 다중감각 데이터를 분석해 행동ㆍ반응 심리를 인지하는 것이다. 다중감각은 반응정보, 감정ㆍ의도정보, 질병ㆍ장애정보 등으로 구성된다.

시선응시ㆍ표정ㆍ행동 등 비언어적 반응을 감지하고, 미술심리 분석과 언어행동 등을 통해 특정 정서를 포착한다. 이를 통해 학습과 추론을 거치고 의사소통 문제 등을 수치로 뽑아내 자폐성장애(ASD) 여부를 선별하는 방식이다.

정량적 개발목표도 설정됐다. 얼굴 기반 감정상태 예측 정확도는 현재 세계 최고 수준으로 평가받는 미국 카네기 멜런 대학교(78.5%)를 능가하는 80~85%까지 끌어올릴 계획이다. 비언어적 반응검출ㆍ추적 정확도는 홍콩침례대학(93.4%)에 준하는 수준(90%)으로 정해졌다. 초기 자폐성장애 선별 정확도도 미국 노스캐롤라이나대학(81%) 정도로 개발된다. 

작년까지 AI관련 정부 연구과제는 조류독감, 교통혼잡, 농축산물이력 등 사회적 문제 중심이었다. 정보통신기획평가원 관계자는 “인간 삶에서 나타나는 보다 근본적인 문제에 초점을 맞춰 이번 AI 연구개발 주제를 선택했다”고 설명했다. 기술개발이 완료되면 앞서 나온 자폐장애 치료용 AI로봇보다 한차원 고도화된 기술로 평가될 수 있다.    

세계적인 AI컴퓨팅 기업 엔비디아의 기술도 최근 들어 인류 문제 해결에 폭넓게 활용되고 있다.

작년 한해만 70만명 이상의 미얀마 로힝야족 난민이 발생해 이들은 열악하고 비위생적인 환경으로 내몰렸다. 심각한 질병 위험 속에 미국  스타트업 폴리핀스가 방글라데시 구호 캠프에서 자사 애플리케이션 ‘티봇’을 활용해 난민들을 진단했다. 폴리핀스는 AI 스타트업 육성 목적의 엔비디아 인셉션 프로그램에 소속된 기업이다.

이 기업은 구글 클라우드 상에서 딥러닝 소프트웨어 플랫폼 ‘엔비디아 GPUs’를 활용해 10만장 이상의 이미지를 학습ㆍ추론한 결과를 토대로 실제 진단에 적용했다. 난민 피부 상태를 바탕으로 전염병 발병 가능성을 파악하는 것이 주목적이다. 전통 진단 방식과 비교했을 때 앱으로 진단한 경우 발병 확인 사례가 25% 더 많았다.

이와 함께 미국 로체스터공대와 버팔로 대학 등은 엔비디아 플랫폼을 활용해 소멸 위기 언어 보존 프로젝트도 진행 중이다. 이들 연구팀은 북미 원주민 세네카(Seneca)의 언어를 ASR(자동음성인식)에 적용하는 것을 연구하고 있다. 그 결과 세네카 ASR 오류가 70%에서 현재 56%로 낮아졌다. 최종 목표는 오류를 25%까지 낮추는 것이다. 연구를 통해 구축된 데이터베이스는 소수 언어 보존에 쓰인다.

AI와 인간을 동등한 시선으로 보고 ‘공존’을 위한 연구도 진행 중이다. 마이크로소프트는 지난달 초 워싱턴 대학과 공동 분석한 ‘인간과 AI의 상호작용을 위한 가이드라인’ 논문을 공개했다. 가이드라인은 상황별로 초기, 상호작용 중간, 문제 발생, 시간경과에 따라 총 18개로 구성됐다. 가령 AI 시스템에 문제가 발생했을 때 사용자가 쉽게 편집하고 개선할 수 있어야 한다. 시간이 흐른 뒤에도 AI는 사용자 행동을 학습하고 사용자는 피드백을 제공해야 한다.

유럽연합(EU)은 작년 말 AI 윤리규정 초안을 공개하고 다음달 확정할 계획이다. 초안에서 가장 우선적으로 강조한 점은 ‘AI가 분명히 윤리적 목적에 따라 개발되고 사용돼야 한다’는 것이다. 이를 위해 ‘비차별’, ‘투명성’ 등에 기반한 구체적인 실천방법이 마련되고, AI의 신뢰도를 평가할 수 있는 방안도 구축된다.  

정태일 기자/killpass@heraldcorp.com
맞춤 정보
    당신을 위한 추천 정보
      많이 본 정보
      오늘의 인기정보
        이슈 & 토픽
          비즈 링크