인류는 자신의 노동을 대신할 수 있는 다재다능한 무언가를 갈망해왔다. 연구소 과학자들의 노력 덕분에, 우리는 인공지능(Artificial Intelligence, AI)에서 해답을 찾았다. 거창한 이론대로라면 AI는 사람이 해야 할 일을 거의 무엇이든지 할 수 있다(최소한 일부라도, 일부 시간 동안이라도).
그렇다. AI혁신은 경이롭다. 시리, 알렉사, 구글 어시스턴트 같은 가상 비서는 10 ~ 15년 전만 해도 마치 마술처럼 보일 것이다. 이용자의 말은 AI의 명령이 되고, 1990년대의 음성 인식 툴과 달리 이들은 꽤나 정확한 대답을 내놓는다. 바늘의 꼭지점에서 얼마나 많은 수의 천사가 춤을 출 수 있는 지와 같은 황당한 질문만 아니면 된다.
그러나 AI의 온갖 마술에도 불구하고, AI는 여전히 컴퓨터 프로그래밍에 의존하고, 스프레드시트, 워드프로세서에서와 같이 온갖 제한들로부터 똑같은 어려움을 겪는다. 이들은 통계적 변화를 다루는 데 능숙하지만, 궁극적으로 여전히 컴퓨터일 뿐이고, 따라서 함수를 계산하고 수치들이 임계점보다 크거나 작은지를 측정해 결론을 내릴 뿐이다. 영리한 신비로움과 정교한 알고리즘의 아래에는 ‘if-Then’ 결정을 수행하는 일련의 트랜지스터가 있다.
모든 산업에 걸쳐 AI가 확산되면서 우리는 아래와 같이 인공지능이 가진 어두운 비밀과 함께 살아가는 법을 배워야 한다.
AI가 발견한 것은 대부분이 뻔한 것이다 AI 과학자가 해야 하는 어려운 일 중 하나는 모든 사람이 이미 알고 있는 것이 발견됐다고 상사에게 말하는 것이다. 100억장의 사진을 조사한 후 AI는 하늘이 푸르다고 보고한다. 훈련 세트에 야간 사진을 넣지 않았다면 AI는 하늘이 저녁에 어두워진다는 사실을 모를 것이다.
그러나 이는 어쩔 수 없다. 데이터 내의 가장 강력한 신호는 실무자에게 명백할 것이고, 숫자를 파헤치는 컴퓨터 알고리즘에게도 명백할 것이다. 최소한 알고리즘에게 보상해줄 필요가 없다.
미묘한 통찰은 가치없기 십상이다 물론, 우수한 AI는 데이터가 정확할 때 사소한 차이를 추적한다. 그러나 이러한 사소한 통찰력을 제대로 활용하려면 워크플로우와 관련해 깊은 전략적 변화를 필요로 할 수 있다. 또 일부 미세한 차이는 너무 미세해서 추적할 가치가 없을 것이다. 그리고 컴퓨터는 여전히 이에 집착할 것이다. 즉 큰 신호는 뻔하고 작은 신호는 효용이 별로 없을 수 있다는 것이다.
신비로운 컴퓨터는 위협적이다 초기의 연구자들은 컴퓨터 알고리즘의 수학적 접근이 반박하기 힘든 결정을 내려줄 것이라고 기대했다. 그러나 사람들은 논리를 존중할 생각이 별로 없다. 오히려, AI의 복잡성과 신비로움은 AI의 대답에 만족하지 않는 사람이 이를 공격하기 쉽게 만든다. 알고리즘이 편향적이지 않았는가? 신비로움과 복잡성이 많을수록 사람들은 더욱 의심하고 분노한다.
AI는 점에다 선긋기인 경우가 많다 과학자들은 산만한 데이터의 좌표를 만들고 점을 통해 선을 그리는 작업을 수백 년 동안 해왔다. 머신러닝 알고리즘의 핵심에 있는 대다수 AI 알고리즘이 정확히 이런 일을 한다. 데이터를 취합해 선을 그린다. 대부분의 발전은 문제를 수천, 수백만, 심지어 수십억 개의 작은 문제로 쪼갠 후 이들을 통해 선을 그리는 법을 발견하는 부분에서 이뤄졌다.
이는 마술이 아니다. 이는 우리가 여러 세기 동안 해온 작업에 불과하다. AI의 결정에 결함을 만드는 것이 쉽다는 것을 아는 사람은, AI 대답에 신뢰할 수 있을 정도로 심오한 이론이나 철학적 체계가 없다는 점에 주목한다. 이는 단지 선의 각도에 대한 추측 작업일 뿐이다.
데이터 수집이 진짜 일이다 데이터 과학을 배우기 시작한 사람이라면 누구든지 과학 작업 자체를 위한 시간이 많지 않다는 것을 알게 된다. AI는 데이터 과학과 매우 유사하고 동일한 난제를 가지고 있다. 파일 형식, 누락된 데이터 필드, 문자 코드에 대한 99.9%의 노력에다 0.01%의 영감을 추가할 뿐이다.
괜찮은 결론을 얻으려면 대량의 데이터가 필요하다 일부 대답은 발견하기 쉽지만, 더 깊고 더 복잡한 대답은 흔히 더욱 많은 데이터를 요구한다. 때에 따라 데이터의 양은 기하급수적으로 증가할 것이다. AI는 데이터에 대한 끝없는 욕구를 만들곤 한다.
데이터 편향에 빠진다 플라톤의 동굴 우화처럼 인간의 인식 능력과 범위는 제한적이다. AI도 다를 게 없다. 이들은 훈련 세트에 의해 명백히 제한을 받는다. 데이터에 편향이 있다면 AI는 이를 수용할 수밖에 없다. 데이터에 허점이 있다면 마찬가지로 AI의 산출물에도 허점이 있을 것이다.
AI는 전기 블랙홀이다 대다수 게임은 최종 레벨이나 궁극적 목표를 가지고 있다. 그러나 AI는 계속해서 복잡해질 뿐이다. 만약 전기 소비에 신경 쓰지 않는다면 더 많은 노드, 더 많은 레벨, 더 많은 내부 변수(데이터)를 가진 더 복잡한 모델을 계속해서 생산할 것이다.
물론 이러한 복잡성이 모델을 진정으로 유용하게 만들 수 있다. 몇몇 지성적 행동이 나타날 수도 있다. 그러나 그러한 효과를 진정으로 획득하려면 쉬지 않고 실행되는 수많은 GPU와 이를 뒷받침할 수 있는 막대한 전력이 필요할 것이다.
설명 가능한 AI는 또 하나의 거북이일 뿐이다 최근 AI연구자들은 AI가 무엇을 하고 있는지에 관해 설명하려는 노력에 더욱 많은 시간을 할애하고 있다. 데이터를 파헤쳐보면 훈련된 모델이 데이터 세트의 특정 부분에서 나온 매개변수에 크게 의존한다는 것을 발견할 수 있다.
그러나, 설명이라는 것은 흔히 다른 마술을 수행하면서 한 마술을 설명하는 마술사의 그것과 비슷하다. 이유를 설명하는 것은 놀라울 정도로 어렵다. 단순한 선형 모델을 보고 매개변수를 조사할 수 있지만 답을 찾기란 대단히 힘든 경우가 많다.
이는 지구가 거대한 거북이 위에 앉아 있다는 오래된 모델 같은 것이다. 그리고 이 거북이는 어디에 서있는가? 또 다른 거북이의 등 위에 서있다. 그 거북이는 다른 거북이 위에 서있고, 이는 계속 되풀이된다.
공정하기가 쉽지 않다 AI가 농구 선수 후보를 찾는 상황이라고 치자. 또 훈련용 데이터 세트에서 학생의 ‘키’ 데이터를 배제했다고 가정해보자. 그러나 AI프로그램은 다른 대용 데이터를 찾아 키가 큰 사람을 지정하고 농구 팀원으로 이들을 선택할 가능성이 매우 높다. 이를테면 신발 크기이다. 아니라면 팔 길이일 수도 있다.
중립적인 AI가 비편향적 결정을 내리도록 요구한다면 세상이 더 공정해질 수 있을 것이라고 생각하기 쉽겠지만 때에 따라 문제가 현실 속에 깊이 매몰되어 있는 경우가 많다.
때때로 해법은 더 나쁘다 AI를 공정하도록 만드는 것이 진정한 해법일까? 일부 사람은 AI가 미리 특정된 비율에 따라 결과를 생성한다고 주장하며, 공정성을 위해 척도를 조작하고 알고리즘을 재작성해 결과를 변경한다. 그러나 원하는 결과를 이미 결정해두었다면 굳이 훈련이나 데이터 분석을 할 이유가 있을까?
진짜 문제는 인간이다 우리는 위험 부담이 낮을 때 대체로 AI에 만족한다 1,000만 장의 사진을 분류해야 한다면 AI는 대부분의 경우 어느 정도 정확한 결과를 생성할 것이다. 물론 문제와 실수가 없는 것은 아니다. 어떤 문제는 AI편향의 심각한 문제를 반영할 수 있고, 이는 200쪽 분량의 논문을 쓸만한 가치가 있을 수 있는 문제일 수 있다.
그러나 AI 자체가 문제는 아니다. 이들은 시키는 일을 할 뿐이다. 이들이 지나치게 혼란스러워져서 오류 메시지를 생성하기 시작한다면 우리는 이 메시지를 숨길 수 있다. 훈련 세트가 완벽한 결과를 도출하지 못한다면 우리는 더 많은 데이터가 필요한 부분을 건너뛸 수 있다. 정확도가 높지 않다면 결과를 정리해 치워둘 수 있다. AI는 다시 작업으로 돌아가 최선의 노력을 할 것이다.
그러나 인간은 완전히 다른 종류의 생명체이다. AI는 인간의 도구일 뿐이고, 인간은 수익이나 여타 유리함을 확보하기 위해 이를 이용하고 싶어한다. 일부는 상대적으로 무해하지만, 일부는 미리 계획된 숨겨진 악의에 의해 움직일 것이다. 많은 경우, 우리가 사악한 AI를 만난다면 이는 AI가 사악한 행위로부터 수익을 얻는 인간을 위한 꼭두각시이기 때문이다.