AI fallacy - <The Future of the Professions>
7월 중순에 제출했는데 아직 출간은 안 된 <The Future of the Professions>는 여태까지 번역한 책이 모두 그러했듯 새로운 관점과 지식을 주었다. 이 책의 키워드로는 당연히 '전문직'이 첫 손가락에 꼽히겠지만, 사실 '기술', 또는 '인공지능'도 둘째 손가락이 아니라 또 하나의 첫 손가락에 꼽힐 것이다.
이 또 하나의 최중요 키워드 맥락에서 나온 용어 'AI fallacy(제출본에서는 단순히 '인공지능 오류'라고 했는데, 한 겹 더 풀자면 '인공지능을 바라볼 때 범하는 오류'다)'는 내가 인공지능의 유용함이나 파괴력을 생각할 때 기준점이 되었다.
예를 들어, 수십만 킬로미터를 사고 없이 잘 가다가 최근 들어 사망자를 낸 자율주행차 문제를 생각해 보자. 회사 주가는 크게 떨어졌고 사람들은 '과연 저렇게 위험한 기술에 사람 목숨을 맡길 수 있느냐'고 우려하게 되었다. 한 발 더 나아가, 그 유명한 사고실험 '직진하면 네 명이 죽고 방향을 꺾으면 두 명이 죽는다면 핸들을 그대로 두어야 하느냐 돌려야 하느냐'를 기계가 판단할 수 있느냐, 또는 판단하게 해야 하느냐는 문제를 들고 나오기도 한다.
인공지능의 필연적 미숙함을 드러내는 선동으로는 효과가 좋은 질문이다. 한 인공지능 강의에서도 이런 얘기가 있었다. "어떤 분야에 인공지능이 도입되려면 사람 생명까지 달려서는 곤란하다. 그래서 운전이나 수술, 또는 법률 분야에는 인공지능이 근시일 안에 도입되기는 힘들 것이다. 반면, (최소한 직접적/1차적으로는) 사람 목숨까지 좌지우지하지 않는 분야 종사자는 위험하다. 대표 분야가 바로 금융이다."
인상과 주관을 제쳐놓고 본다면 그러한 관점은 정당한가? '인공지능 오류'는 이 때 유용한 도구다. 인공지능의 적용 타당성을 판단할 때는 그 자체의 실패율만 기준으로 삼을 것이 아니라, 기존 인간의 실패율과 비교해야 한다. (내가 잘 모르니 가상 수치를 들자면) 딥러닝을 이용한 사물 인식 정답률이 98%라고 할 때, '2%나 틀렸으니 형편없다'는 결론은 조급하다. 2%나 틀렸다 해도, 알고보니 사람의 정답률이 95%였다면 이제 물체 인식은 기계에게 맡기는 편이 '합리적'이라는 얘기다. (그리고 '합리적' 의견이 항상 채택되지는 않는다. 당연하지만.)
자율주행차 얘기로 돌아가 보자. 첫째, '저렇게 위험한 기술에 사람 목숨을 맡길 수 있느냐?' 이를 판단하려면 예컨대 "30만 킬로미터 주행했더니 두 명이 죽었더라, 그 중 하나는 다른 유인차량이 실수해서 죽었으니 참작할 여지가 있지만 다른 하나는 물체 인식 자체가 잘못되어 죽었다, 그러니 위험하다."는 말만으로는 부족하다. 숫자만으로 비교하려 한다 해도, 인간이 여지껏 운전한 차량의 운행거리 당 사고율이 얼마이고 이 중 무엇이 높은지 알아야 한다. 물론 기계는 음주운전이나 졸음운전을 하지 않는다는 얘기까지 나올 수 있겠지만 이는 가장 단순하게 생각하면 사고율에 녹아 있을 숫자일지 모르니 넘어가자.
두 번째 문제도 인공지능 오류로 판단할 만하다. 그런 도덕적 판단을 기계가 내릴 수는 없다, 또는 기계가 내리게 해서는 안 된다, 또는 이 문제의 해답을 낼 때까지 기계가 운전을 해서는 안 된다는 얘기들을 하는데, 그렇다면 묻고 싶다. "그렇다면 운전자 당신은 어떻게 생각하는가? 그리고 당신과 의견이 다른 사람과 합의해 낼 수 있는가? (상대를 설득할 수 있다고 자신있게 말하는 사람도 있을 것이다. 뭐 행운을 빈다.) 그리고, 지금 저 문제를 '올바르게' 풀어낸 사람만 운전면허를 받고 운전하는가?" 바로 '기계와 인간에 다른 잣대를 들이대는 오류', '인공지능 오류'다.