AI가 우리에게 더 인간적이 되도록 가르칠 수 있습니까?

주요 내용

  • Cogito와 같은 인공 지능 프로그램은 고객을 대할 때 인간에게 공감을 가르치려고 합니다.
  • 전문가들은 기계가 사람들에게 공감을 가르치는 것이 가능한지 아니면 단순히 데이터 포인트를 찾는 것인지에 대해 동의하지 않습니다.
  • 일부 전문가들은 또한 AI 공감을 가르치는 것이 인류의 감정을 빼앗을 수 있다고 우려합니다.
인공 지능을 나타내기 위해 컴퓨터 보드 회로로 덮인 여성의 얼굴.

존 룬드 / 게티 이미지

당신이 콜센터에서 일하고 있고 고객이 전화한다고 상상해보십시오. 당신은 대답하고 즉시 상황이 나빠지기 시작합니다. 고객은 화를 내고 긴장이 고조됩니다.

나중에 후회할 말을 하기 시작합니다. 갑자기 컴퓨터 화면에 메시지가 나타납니다. "공감 큐 - 고객이 어떻게 느끼는지 생각하십시오. 관계를 시도하십시오."

당신에게 무엇을 하라고 말하는 것은 실제 사람이 아닙니다. 에서 온 메시지입니다 인공 지능 프로그램, Cogito 직원들이 좌절한 발신자와 공감하고 성과를 높일 수 있도록 설계되었습니다. Cogito는 인간에게 공감을 가르치려는 AI 프로그램의 증가 중 하나입니다.

여기에는 분명한 아이러니가 있습니다. 인간 과학자들은 더 실물 같은 컴퓨터를 만들기 위해 수십 년 동안 노력해 왔습니다. 이제 기계가 우리에게 어떻게 행동해야 하는지 알려줍니다. 그러나 소프트웨어가 정말로 우리에게 더 공감하는 방법을 가르쳐 줄 수 있습니까? 인공 지능이 일상 생활에 스며들기 시작하면서 심오한 의미를 가질 수 있는 문제입니다.

AI는 인간의 행동을 모방합니다

기술적인 관점에서 보면 AI가 인간이 어떻게 느끼는지에 대한 단서를 포착하고 피드백을 제공할 수 있다는 것은 분명합니다.

"AI와 머신 러닝 시스템은 데이터에서 패턴을 찾는 데 매우 능숙합니다." 아담 폴리악Barnard College의 컴퓨터 과학 박사 후 연구원은 이메일 인터뷰에서 이렇게 말했습니다.

"AI에게 공감 텍스트의 예를 많이 주면 AI는 공감을 불러일으키거나 보여주는 패턴과 신호를 발견할 수 있습니다."

"AI는 공감을 수반하는 인간 행동의 일부를 분해하고 인간에게 이를 수행하도록 상기시키도록 프로그래밍될 수 있지만, 이는 공감을 가르치는 것이 아닙니다."

인간의 반응을 분석하는 AI는 우리가 디지털 방식으로 의사 소통할 때 사람들 사이의 격차를 줄이는 데 도움이 될 수 있습니다. 인지하는 디지털 비즈니스, 이메일 인터뷰에서 말했다.

"지난 1년 동안 실시간, 비디오, 음성 및 메시징은 누구나 상상할 수 있는 것보다 빠르게 성장했으며 이를 통해 사람들과 실제로 물리적 시간을 보내지 않고 진정으로 공감하는 관계를 만드는 데 큰 어려움을 겪었습니다." 추가했습니다.

AI는 말의 어조와 감정과 같은 특성을 분석하고 평가하는 데 도움이 될 수 있다고 Greenstein은 말했습니다. "이것은 통신을 받는 사람이 의미를 더 잘 이해하는 데 도움이 될 수 있으며 메시지가 어떻게 해석될 수 있는지 보여줌으로써 사람이 '말하는' 데 도움이 됩니다."라고 그는 덧붙였습니다.

기업들이 Cogito와 같은 AI 훈련 소프트웨어에 돈을 벌기 위해 서두르는 동안 AI가 인간에게 공감을 가르칠 수 있는지에 대한 질문은 여전히 ​​열려 있습니다. 그리고 그 대답은 기술만큼이나 철학과 관련이 있을지도 모릅니다.

일리아 델리오 믿음과 과학의 교차점에 중점을 둔 빌라노바 대학교의 신학자입니다. 그녀는 AI가 공감을 가르칠 수 있다고 믿습니다.

로봇과 상호작용하는 아이.

원리 / 게티 이미지

델리오는 다음과 같이 지적했다. MIT 팀 행복, 슬픔, 연민과 같은 인간의 감정을 모방할 수 있는 로봇을 만들었습니다. 그녀는 "로봇의 감정이 프로그래밍되는 동안 로봇은 인간과 상호 작용하여 신경 패턴을 설정하거나 강화할 수 있다"고 말했다.

기계가 공감을 이해할 수 있습니까?

전문가들은 최소한 세 가지 형태의 공감을 정의하며, 모두 다른 사람을 이해하고 관계를 맺는 능력과 관련이 있다고 말했습니다. 아이오와주 그리넬 대학의 사회학자 칼라 에릭슨(Karla Erickson)은 그리고 곧 나올 책의 저자, 지저분한 인간: 인간/기계 관계의 사회학, 기술과 우리의 관계를 탐구합니다.

에릭슨은 이메일 인터뷰에서 "관계를 맺는 것은 AI가 할 수 있는 일이 아니며 공감의 기초"라고 말했다.

"AI는 공감을 동반하는 인간의 행동 중 일부를 분해하고 인간에게 이를 수행하도록 상기시키도록 프로그래밍될 수 있지만, 이는 공감을 가르치는 것이 아닙니다. 특히 공감의 측면에서 관계를 맺으려면 듣는 사람이 다음을 수행하는 데 필요한 맥락이 있어야 합니다. 관계-이 말은 AI의 '생명'에는 상실, 그리움, 희망, 고통, 죽음이 포함되지 않는다는 뜻입니다."

그러나 전문가들은 AI가 우리에게 공감하는 방법을 가르쳐 줄 수 있는지에 대해 충돌합니다. 문제의 일부는 모든 사람이 "공감" 또는 "AI"가 의미하는 바에 동의하지 않는다는 것입니다. 인공 지능이라는 용어가 많이 사용되지만 현재 우리가 인간으로 생각하는 종류의 지능이 아닙니다.

"이것은 순수한 엔지니어링 작업이며 문제의 AI 자체가 감정을 가지고 있거나 진정으로 감정을 이해한다는 환상은 없습니다."

"'공감 신호'는 공감과 아무 관련이 없습니다." 마이클 스페지오, Scripps College의 심리학, 신경 과학 및 데이터 과학 교수는 이메일 인터뷰에서 말했습니다.

"그들은 인간 평가자가 짜증나는/성가신 사람들의 목소리로 분류한 목소리의 단서입니다. 따라서 수학적 모델에서 인간의 전문 지식을 사용하고 인간의 전문 지식을 기반으로 구축된 모델이 지능적이라고 주장하는 것입니다. 이와 같은 제한된 기계 학습 접근 방식은 종종 지능적이지 않은 AI로 과장됩니다."

Rensselaer Polytechnic Institute에서는 셀머 브링스요르드의 연구실 인간 감정의 수학적 모델을 구축하고 있습니다. 감성 지능 테스트에서 높은 점수를 받을 수 있는 AI를 만들어 인간에게 적용하는 것이 연구 목적이다. 그러나 AI 전문가인 Bringsjord는 AI가 가르치는 모든 것은 부주의한 것이라고 말합니다.

그는 이메일 인터뷰에서 "그러나 이것은 순수한 엔지니어링 작업이며 문제의 AI 자체가 감정을 가지고 있거나 진정으로 감정을 이해한다는 그런 환상을 가지고 있지 않다"고 말했다.

무엇이 잘못될 수 있습니까?

Cogito와 같은 회사는 AI가 인간을 훈련시키는 밝은 미래를 보고 있지만 다른 관찰자들은 더 조심스럽습니다.

지원, 온라인 정신 건강 서비스는 AI를 사용하여 각 사용자가 표현하는 단일 생각을 기반으로 라우팅합니다. 유사한 사용자를 위해 동적으로 소집되는 주제별 동료 지원 그룹에 실시간으로 문제.

" 얼굴" 화면에 행복한 얼굴을 표시하는 로봇을 껴안고 있는 어린이.

Zinkevych / 게티 이미지

각 그룹에는 텍스트 기반 채팅을 안전하고 트롤 없는 상태로 유지하고 AI, 관련 리소스, 권장 사항 및 그룹에 대한 추천을 통해 다시 표면화 대화. Supportiv는 AI를 사용하여 중재자가 감정적 요구의 강도를 파악하는 데 능숙하도록 교육합니다.

Supportiv의 데이터 과학자인 Zara Dana는 이메일 인터뷰에서 "공감은 우리가 만드는 근육입니다.

"걷기 위해 목발을 사용하기 시작하면 근육이 위축됩니다. 언젠가 AI 시스템이 온라인 상태가 아닌 경우 부양 근로자가 자신감을 가질 수 있을지 궁금하지 않을 수 없습니다. 그녀는 자신의 일을 효과적으로 수행할 수 있습니까? 근로자에게 장기적인 영향은 무엇입니까? AI가 없는 복잡한 사회적 상황을 어떻게 헤쳐나갈 수 있을까요?"

AI를 사용하여 공감 능력을 가르친다 해도 감정 훈련에 AI에 너무 의존하기 시작하면 어떻게 될까요? 한 가지 가능한 단점은 로봇이 자신의 프로그램에 대해 선택할 수 없기 때문에 인간이 다른 인간보다 로봇에 더 애착을 가질 수 있다는 것입니다.

"자유 의지에 대한 인간의 능력은 인간 행위자를 보다 모호한 위치에 놓이게 합니다."라고 Delio는 말했습니다. "사람은 언젠가는 자비로울 수 있고 다음 날은 무자비할 수 있습니다. 로봇은 달리 훈련받지 않는 한 지속적으로 동정심을 유지할 것입니다."

전문가들은 AI가 인간에게 사람처럼 행동하는 방법을 가르친다면 잘못될 수 있는 일이 많다고 말합니다.

"우리는 사회적 동물로 진화했으며 우리의 공감은 다른 사람들과 연결하고 우리가 속한 집단을 돌보는 능력의 핵심입니다."

"인간의 감독 없이 학생은 절대적으로 중요한 것을 배울 수 있습니다."라고 Bringsjord는 말했습니다.

"목소리의 어조와 높낮이는 내용이 없는 단순한 행동 상관 관계입니다. 교실에서 가르치는 동안 내 목소리를 도넛에 도넛으로 돌리는 것은 많은 사람들에게 읽힐 것입니다.... 속상함을 나타내는 반면, 실제로는 열정적이고 최소한의 공감이 필요합니다."

인간의 AI 훈련이 번성하면 우리는 그것에 의존하게 될 것입니다. 그리고 그것이 반드시 좋은 것은 아닙니다.

에릭슨은 "이 훈련은 상당한 인간의 기술을 평가절하하고 마치 전문 지식을 가진 사람인 것처럼 AI로 시선을 돌린다"고 말했다. "우리는 사회적 동물로 진화했으며 우리의 공감은 다른 사람들과 연결하고 우리가 속한 집단을 돌보는 능력의 핵심입니다."