작년에 뉴저지의 몬 머스 카운티 (Monmouth County)의 조용한 도로에 이상한자가 운전 차가 출시되었습니다. 칩 메이커인 엔비디아 (Nvidia)의 연구원이 개발 한 실험용 차량은 다른 자율 차량과 차별화되지는 않았지만 구글, 테슬라 또는 제너럴 모터스 (GM)가 시연한 것과는 달리 인공 지능의 상승력을 보여 주었다. 자동차는 엔지니어 또는 프로그래머가 제공하는 단 하나의 지시에도 의존하지 않고, 대신, 인간운전하는 것을 보는 것으로 운전을 배운 알고리즘에 전적으로 의존했습니다.
이런 식으로 운전할 차를 얻는 것이 인상적이었습니다. 그러나 자동차가 어떻게 결정을 내리는 지 완전히 명확하지 않기 때문에 약간 불안정합니다. 차량 센서의 정보는 데이터를 처리하고 스티어링 휠, 브레이크 및 기타 시스템을 작동시키는 데 필요한 명령을 전달하는 거대한 인조 뉴런 네트워크로 바로 연결됩니다. 결과는 당신이 인간의 운전자에게 기대하는 반응과 일치하는 것으로 보인다. 그러나 언젠가 그것이 예상치 못한 일에 부딛힌다면 어떻게 될까요? 즉 나무에 부딪 히거나 녹색 불빛에 정지해 있다면 어떨까요? 지금 상황에서는 이유를 찾아내기 어려울 것입니다. 이 시스템은 너무 복잡하여 엔지니어가 설계했음에도 진행되는 작업의 이유를 파악하는 데 어려움을 겪을 수 있습니다. 그리고 당신은 이유를 물어 볼 수도 없습니다 : 그러한 시스템을 설계하는 분명한 정해진 방법이 없기 때문에 왜 그런 일이 발생했는지 설명 할 수 있습니다.
이 차량의 알수없는 마음은 인공 지능에 연관된 문제를 떠오르게 합니다. 딥러닝으로 알려진 자동차의 AI 기술은 최근 몇 년 동안 문제를 해결하는 데 매우 강력했으며, 이미지 캡션, 음성 인식 및 언어 번역과 같은 작업에 널리 사용되었습니다. 현재 동일한 기술로 치명적인 질병을 진단하고 백만 달러 규모의 거래 의사 결정을 내리며 무수히 많은 일들을 수행하여 전체 산업을 변화시킬 수 있다는 희망이 있습니다.
그러나 딥러닝과 같은 기술을 제작자에게 더 잘 이해시키고 사용자에게 잘 설명하는 방법을 찾지 못하면 그러한 희망적인 일은 발생하지 않거나 발생해서는 안됩니다. 그렇지 않으면 실패가 발생할 수있는 시기를 예측하기가 어려울 것이며 또한 그러한 실패를 피할 수 없는 일이 될 것입니다. 이러한 것이 바로 Nvidia의 자동차가 여전히 실험적인 이유 중 하나입니다.
이미 몇개의 수학 모델들은 누구가 가석방을 받을 것인지, 누가 대출 승인을 받을것인지, 누가 직장을 얻게 될것인지를 결정하는 데 사용됩니다. 이 수학적 모델에 접근 할 수 있다면 그들의 추론을 이해하는 것이 가능할 것입니다. 그러나 은행, 군대, 고용주 및 다른 조직들은 이제 자동화 된 의사 결정을 불가사의하게 만들 수있는 보다 복잡한 기계 학습 접근법에 관심을 돌리고 있습니다. 이러한 접근법 중 가장 일반적인 딥 러닝은 근본적으로 다른 방식으로 컴퓨터 프로그래밍하는 형태로 나타납니다. MIT의 기계 학습 응용 프로그램을 담당하고있는 Tommi Jaakkola 교수는 “이러한 현상들이 이미 적절한 것이며, 미래에는 더욱 절절한 것으로 여기게 되는 것이 문제입니다. 투자 결정, 의학적 결정, 또는 군사 결정이든간에, 당신은 단지 ‘블랙 박스’방법에 의존하고 싶지 않을 것입니다.”
이것은 마음의 갈등을 야기하는 질문을 제기합니다. 기술이 발전함에 따라, 우리는 곧 AI를 맹신해야 하는 단계에 당면할 것입니다. 물론 우리 인간은 항상 우리의 사고 과정을 진정으로 설명 할 수는 없지만 사람들을 직관적으로 신뢰하고 측정하는 방법을 찾습니다. 인간이 생각하는 방식과 다르게 생각하고 결정하는 기계에서도 가능할 것입니까? 제작자가 이해하지 못하는 방식으로 작동하는 기계를 만든 적이 한번도 없습니다. 우리는 예측할 수없고 이해할 수없는 지능형 기계와 의사 소통 및 발전하기를 얼마나 잘 기대할 수 있을까요? 이러한 질문은 Google에서 Apple까지 거치며 AI 알고리즘에 대한 많은 연구를 하게끔 하였습니다.