[이예솔의 기술/의료 칼럼] 인공지능의 인간화

기술이 발전하면서 인간의 기계에 대한 의존도는 높아지고 있다. 하루가 다르게 성장하고 있는 인공지능에 대한 연구는 몇몇에게는 기대로, 또 다른 누구에게는 불안으로 작용한다. 인공지능은 강한 인공지능과 약한 인공지능으로 나뉜다. 강한 인공지능은 어떤 문제를 실제로 사고하고 해결하며 스스로를 인식하는 것, 약한 인공지능은 어떤 문제를 사고하고 해결할 수는 없지만 지능적인 행동을 보이는 것을 가리킨다.1 일반적으로 인간에게 해를 끼칠 수 있다고 생각되는 인공지능은 강한 인공지능이다. 그들은 인간처럼 학습할 수 있고, 심지어 인간 형태로 만들어질 수 있기 때문이다.

 

 

마이크로소프트사가 제작한 ‘테이’라는 채팅 로봇은 사람들과의 대화를 기반으로 학습한다. 하지만 차별적인 발언을 반복적으로 학습하자 ‘테이’는 그렇게 변화하였고, 이 서비스는 종료되었다. 그렇다면 이 상황에서 ‘테이’의 자연스러운 학습을 방해한 사람들을 처벌할 수 있을까? 나는 이 사람들에 대해 거의 처벌 불가능하다고 생각한다. 선과 악이 확실히 나뉘는 주제에 대해서는 가능할 수도 있겠지만, 대부분의 사회적 문제에는 의견이 갈리기 때문이다. 처벌을 한다 하더라도, 인간 사이에서 ‘일반적인 인간’에 대한 논쟁이 발생할 것이고 윤리적인 문제로 이어질 것이다. 지금 화두가 되고 있는 ‘로봇이 책임져야 하는가, 소유자 혹은 회사가 책임져야 하는가’의 문제에서 확장되어, 다른 생각을 가진 인간 사이에서 ‘인간다운 것은 무엇인가’에 대해 편가르기가 심화될 것이다.

 

더욱이 이 문제는 사람의 생명과 관련 있는 의료분야에서 많은 갈등을 일으킬 것이다. 감기에서 항생제 처방이 그 예이다. 항생제를 자주 복용하면 내성이 생길 위험이 있기 때문에 감기가 심하지 않는 경우에는 처방하지 않는 것이 좋다. 하지만 전문가들은 항생제 처방에 대한 임상적인 차이는 있지만 정확한 감별은 힘들다는 의견이다2 미래에 인공지능이 인간 의사를 대신하여 처방을 내릴 경우, 결국 항생제 처방에 대한 판단은 인간으로부터 학습할 것이다. 현재에도 애매한 이 문제에 대해 인공지능은 학습자에 따라 다르게 행동할 것이고, 만약 문제가 생겼을 때 ‘인간이라면 어떤 판단을 내렸을까?’라는 고민을 하며 인간의 사고에 대한 논란이 생길 것이다.

 

인간은 아직도 인간에 대해 잘 알지 못한다. 이러한 상황에서 인간다운 로봇을 만든다니 참 아이러니하다. 인간다운 로봇을 만들기 위해, 다수의 사람들이 가지고 있는 특성을 문서화하여 인간을 정의한다면 다수에 포함되지 못한 소수의 인간은 차별받을 것이다. 또한 지금은 인공지능과 인간에 대한 구분에 초점이 맞추어 있지만 로봇이 인간화된다면 일반화의 문제가 생길 것이다. 따라서 인공지능의 인간화는 윤리적, 사회적으로 옳지 않다고 생각한다.

 

참고 및 인용자료 출처

1.인용: https://terms.naver.com/entry.nhn?docId=4356939&cid=43665&categoryId=43665
2.참고: http://health.chosun.com/site/data/html_dir/2020/10/20/2020102002463.html

 

 

이 기사 친구들에게 공유하기