기후위기시계
실시간 뉴스
  • [VIBE] AI가 누군가를 죽이도록 설계돼야 하는 이유


가까운 미래. 당신은 인공지능(AI)이 운전하는 자율주행차에 타고 있습니다. 그런데 갑자기 브레이크가 고장 납니다. 설상가상으로 눈앞에 휠체어를 탄 노인과 아이가 지나갑니다. 길 옆은 낭떠러지. AI는 당신과 아이, 노인 중에 누구를 살려야 할까요?

당신의 관점을 키워줄 밸류플레인(Value+Explain) ‘바이브 온(VIBE ON)’의 첫 번째 주제는 ‘AI가 불러올 도덕적 딜레마’입니다.

극단적이지만 충분히 발생할 수 있는 자율주행차의 사고 상황에서 AI는 결국 ‘누군가를 죽이도록’ 설계될 수밖에 없습니다. 이때 AI의 판단에 적용할 수 있는 보편적 윤리기준이 있을까요?

이야드 라흐완 매사추세츠공과대학(MIT) 교수는 전 세계 233개 나라에 살고 있는 230만명을 대상으로 한 가지 설문조사를 실시했습니다. 누군가를 죽일 수 밖에 없는 딜레마 상황에서 자율주행차의 인공지능이 어떤 결정을 내려야 하는지 질문한 것이죠.

북미나 유럽처럼 기독교 문화권에 살고 있는 사람들은 어른보다 어린이를 살려야 한다고 답한 반면, 한국과 중국 같은 유교 문화권에서는 어린이보다 어른을 살려야 한다는 답변이 더 많았습니다. 문화권마다 윤리기준이 달라질 수 있는 겁니다.

결국 AI에 일괄 적용할 수 있는 보편적 윤리기준이 세상에는 존재하지 않는 겁니다.


보다 극적인 사례도 있습니다. 자율적 판단에 따라 아군과 적군을 식별해 그 자리에서 적군을 죽이는 ‘킬러 로봇’ 이야기입니다.

당신이, 혹은 군에 입대한 당신의 자녀가 전쟁터에서 적국의 킬러 로봇을 만나게 된다면 어떻게 해야 할까요? 그저 킬러 로봇이 당신과 당신의 자녀를 ‘살려둬도 되는 인간’으로 봐주기만을 기도해야 할까요?

현재 미국, 러시아 등 많은 국가가 오는 2030년까지 킬러 로봇 개발을 완료ㆍ배치하는 것을 목표로 삼고 있습니다.

최근 AI 전문가 2400명은 “자율 살상 무기를 만들지 않겠다”고 선언했습니다. 살상과 파괴의 최종 결정과 책임은 반드시 인간이 져야 한다는 것입니다.

미래의 AI는 단순한 기술의 문제를 넘어 철학과 도덕 차원에서 다뤄져야 합니다. 당신은 AI와 인간의 공존을 위한 고민을 시작할 준비가 되셨나요?

박이담 기자ㆍ박건우 CP/parkidam@heraldcorp.com
맞춤 정보
    당신을 위한 추천 정보
      많이 본 정보
      오늘의 인기정보
        이슈 & 토픽
          비즈 링크