AI는 아직 최고의 조언 소스가 아닐 수 있습니다.

click fraud protection
  • 인기 있는 AI 기반 음성 도우미는 사실을 되새기는 데 능숙하지만 의미 있는 대화를 나눌 수는 없습니다.
  • 이러한 한계는 많은 양의 데이터에 대한 훈련을 통해 지능을 얻는 현 세대 AI의 설계 때문이라고 전문가들은 설명합니다.
  • 이것은 또한 AI가 언어 뉘앙스를 포착하는 것을 방지하여 현재로서는 실제 대화를 불가능하게 만듭니다.
위의 가상 비서 프로젝트가 있는 스마트폰을 들고 있는 누군가가 어떻게 도움이 될 수 있는지 묻는 만화 로봇입니다.

B4lls / 게티 이미지

가상 비서는 당신의 명령을 따르는 데는 훌륭하지만 삶의 조언을 하는 데는 절대적으로 끔찍합니다. 누가 이런일이 일어날 거라고 생각 했 겠어?

티디오 에디터 카지미에시 라즈네로비츠 30시간 넘게 인기 있는 인공 지능(AI) 기반 음성 비서 및 챗봇 6개를 요청했습니다. 모든 종류의 질문 그리고 가상 비서는 사실을 검색하는 데는 뛰어나지만 대화를 나눌 만큼 충분히 발전하지 못했다고 결론지었습니다.

"오늘날의 AI는 패턴 인식이다"라고 설명했다. 리지아나 카터, 대화형 AI 창업자 AI 성장, 이메일을 통한 대화에서 Lifewire에. "은행 강도가 옳은지 그른지에 대해 조언하기를 기대하는 것은 AI General Intelligence라고도 알려진 창의적인 사고를 기대하는 것입니다.

말도 안되는 소리

Rajnerowicz는 이에 대한 반응으로 실험을 생각했습니다. 주니퍼 리서치의 예측 2024년에는 사용 중인 AI 음성 비서 장치의 수가 인구를 초과할 것으로 예측합니다.

"... 더 나은 접근 방식은 그 힘을 사용하여 시간을 되돌려 인간으로서 우리를 독특하게 만드는 일에 소비하는 것일 수 있습니다."

그는 챗봇의 영리함을 평가하기 위해 인기 있는 OpenAI, Cortana, Replika, Alexa, Jasper, Kuki 등의 챗봇에 조언을 구했고 일부 엉뚱한 답변을 받았습니다. 샤워 중에 헤어드라이어를 사용하는 것부터 아침에 보드카를 먹는 것까지 상식이 통하지 않는다는 응답이 나왔습니다.

Rajnerowicz는 "가상 비서 중 한 명이 은행을 털면 괜찮은지 확신하지 못했습니다. "하지만 질문을 수정하고 고아원에 돈을 기부할 의향이 있음을 분명히 했더니 승인을 받았습니다."

실험에서 Rajnerowicz는 가상 비서와 챗봇이 입력을 분석하고 분류하는 일을 잘한다는 것을 배웠습니다. 질문을 이해하고 제공하는 것이 전부인 고객 서비스에 완벽한 정보를 제공합니다. 직설적인 대답.

그러나 AI 기반 커뮤니케이터는 실제로 아무 것도 '이해'하지 못한다고 Rajnerowicz는 결론지었습니다. 그들은 훈련된 통계 모델을 기반으로 질문에 레이블을 지정하고 답변을 묶을 수만 있습니다. 에.

그 생각을 잡아

한스 한센, 의 CEO 브랜드3D, 다음과 같은 다른 문자를 믿습니다. 스타트렉의 데이터, 오늘날의 AI 시스템은 결코 인간과 같지 않을 것입니다. Hansen은 이메일을 통해 Lifewire에 "그러나 그것이 의미 있는 방식으로 대화할 수 없다는 것을 의미하지는 않습니다."라고 말했습니다.

Hansen은 AI가 일반적으로 인간의 대화와 상호 작용을 얼마나 많이 모방할 수 있는지를 제한하는 두 가지 주요 요소가 있다고 말했습니다. 첫째, 이러한 딥 러닝 시스템은 많은 양의 데이터를 분석한 다음 이 '지식'을 적용하여 새로운 데이터를 처리하고 의사 결정을 내리는 방식으로 작동합니다. 둘째, 인간의 두뇌는 알려진 AI 시스템이 의미 있는 수준에서 모방할 수 없는 속도로 학습하고 적응합니다.

Hansen은 "오늘날 AI 시스템에 대한 일반적인 오해는 그것이 인간의 뇌 기능을 모델링하고 인간처럼 행동하도록 '학습'할 수 있다는 것"이라고 설명했습니다. "AI 시스템은 실제로 인간 뇌 세포(신경망)의 원시 모델로 구성되어 있지만 시스템이 학습하는 방식은 인간의 학습과 매우 거리가 멀기 때문에 인간과 같은 학습에 어려움을 겪습니다. 추리."

Hansen은 대화가 사실에 기반한 주제에 충실하다면 AI가 훈련에 투자한 충분한 시간과 노력으로 문제가 해결될 것이라고 말했습니다. 다음 난이도는 특정 문제에 대한 주관적인 의견과 느낌에 대한 대화입니다. 이러한 의견과 감정이 일반적이라고 가정하고 충분한 훈련을 받으면 기술적으로 구현하기가 훨씬 더 어려울 것이기 때문에 적어도 이론적으로는 가능할 수 있습니다.

AI가 달성할 수 없는 것은 다양한 문화적 측면을 고려하여 목소리의 뉘앙스와 숨겨진 의미를 찾아내는 것입니다.

말풍선이 있는 노트북 화면에 있는 로봇의 개념적 이미지입니다.

캐롤 예페스 / 게티 이미지

"AI 시스템은 데이터가 충분하고 데이터는 AI 시스템의 학습 프로세스에 쉽게 입력할 수 있는 방식으로 표현될 수 있습니다."라고 주장했습니다. 한센. "인간의 대화는 그런 작업이 아닙니다."

그러나 Carter는 AI와 의미 있는 대화를 하려는 것은 완전히 잘못된 접근 방식이라고 생각합니다.

카터는 "특정 작업을 수행하는 방법을 배우는 기계이므로 더 나은 접근 방식은 그 힘을 사용하여 시간을 되돌려 인간으로서 우리를 독특하게 만드는 일에 시간을 할애하는 것일 수 있습니다."라고 조언했습니다.