Может ли ИИ научить нас быть более человечными?
Ключевые выводы
- Программы искусственного интеллекта, такие как Cogito, пытаются научить людей сочувствию в отношениях с клиентами.
- Эксперты расходятся во мнениях относительно того, может ли машина научить людей сочувствию или она просто находит точки данных.
- Некоторые эксперты также обеспокоены тем, что обучение искусственному интеллекту может лишить человечество этой эмоции.
Представьте, что вы работаете в колл-центре, и вам звонит клиент. Вы отвечаете, и сразу дела идут плохо. Покупатель злится, и напряженность возрастает.
Вы начинаете говорить то, о чем позже можете пожалеть. Внезапно на экране вашего компьютера появляется сообщение. «Сигнал сочувствия» - подумайте о том, что чувствует покупатель. Попытайтесь понять ".
Не настоящий человек говорит вам, что делать. Это сообщение от Cogito, программа искусственного интеллекта разработан, чтобы помочь работникам сочувствовать разочарованным абонентам и повысить производительность. Cogito - одна из растущего числа программ искусственного интеллекта, которые пытаются научить людей сочувствию.
Здесь есть очевидная ирония. Человеческие ученые десятилетиями пытались создать более реалистичные компьютеры. Теперь машины говорят нам, как себя вести. Но может ли программное обеспечение действительно научить нас быть более чуткими? Это проблема, которая может иметь серьезные последствия, поскольку искусственный интеллект проникает в повседневную жизнь.
ИИ имитирует поведение человека
С технической точки зрения очевидно, что ИИ может улавливать подсказки о том, что люди чувствуют, и предоставлять обратную связь.
«Системы искусственного интеллекта и машинного обучения очень хорошо умеют находить закономерности в данных», Адам Поляк, - сказал в интервью по электронной почте научный сотрудник факультета компьютерных наук Барнард-колледжа.
«Если мы дадим ИИ много примеров сочувствующего текста, ИИ сможет обнаружить закономерности и подсказки, которые вызывают или демонстрируют сочувствие».
«ИИ может быть запрограммирован так, чтобы разрушать некоторые виды человеческого поведения, которые сопровождают сочувствие, и напоминать людям о необходимости их выполнять, но это не обучение сочувствию».
ИИ, который анализирует человеческие реакции, может помочь преодолеть растущий разрыв между людьми, когда мы общаемся в цифровом формате, - говорит Брет Гринштейн, эксперт по ИИ в Cognizant Digital Business- сказал он в интервью по электронной почте.
"За последний год видео, голос и обмен сообщениями в реальном времени росли быстрее, чем кто-либо мог представить, и вместе с этим возникли огромные проблемы в создании по-настоящему эмпатических отношений без фактического проведения физического времени с людьми », - сказал он добавлен.
По словам Гринштейна, ИИ может помочь анализировать и оценивать такие характеристики, как тон и эмоции в речи. «Это может помочь человеку, получающему сообщения, лучше понять, что имелось в виду, и помогает человеку« говорить », показывая, как сообщения могут быть интерпретированы», - добавил он.
В то время как компании стремятся нажиться на программном обеспечении для обучения ИИ, таком как Cogito, вопрос о том, может ли ИИ научить людей сочувствию, остается открытым. И ответ может быть связан не только с технологией, но и с философией.
Илья Делио является теологом Университета Вилланова, чья работа сосредоточена на пересечении веры и науки. Она считает, что ИИ может научить сочувствию.
Делио указал, что команда в Массачусетском технологическом институте создал роботов, которые могут имитировать человеческие эмоции, такие как счастье, печаль и сострадание. «В то время как эмоции роботов запрограммированы, роботы могут взаимодействовать с людьми и, таким образом, создавать или укреплять нейронные паттерны», - сказала она.
Может ли машина понять сочувствие?
По словам экспертов, эксперты определяют как минимум три формы сочувствия, все из которых включают способность понимать другого человека и относиться к нему. Карла Эриксон, социолог Гриннелл-колледжа в Айове и автор будущей книги, Беспорядочные люди: социология отношений человека и машины, который исследует наши отношения с технологиями.
«Связь - это не то, на что способен ИИ, и это основа для сочувствия», - сказал Эриксон в интервью по электронной почте.
«ИИ может быть запрограммирован так, чтобы разрушать некоторые виды человеческого поведения, которые сопровождают сочувствие, и напоминать людям о необходимости их выполнять, но это не обучение сочувствию. Отношения, особенно с точки зрения сочувствия, потребуют от слушателя необходимого контекста, чтобы связаны - под этим я подразумеваю, что «жизнь» ИИ не включает в себя потери, тоску, надежду, боль или смерть ».
Однако эксперты расходятся во мнениях по поводу того, может ли ИИ научить нас сочувствовать. Отчасти проблема в том, что не все согласны с тем, что вообще означает «сочувствие» или «ИИ». Термин искусственный интеллект часто используется, но в настоящее время это не тот интеллект, который мы считаем человеческим.
«Это чисто инженерная работа, и у меня нет таких иллюзий, что рассматриваемый ИИ сам по себе обладает эмоциями или искренне понимает эмоции».
«Сигналы сочувствия» не имеют ничего общего с сочувствием », Майкл Специо, - сказал в интервью по электронной почте профессор психологии, нейробиологии и анализа данных в колледже Скриппс.
"Это сигналы от голосов, которые человеческие оценщики классифицировали как голоса людей, которые раздражены / раздражены. Таким образом, это просто использование человеческого опыта в математической модели, а затем утверждение, что модель, построенная на человеческом опыте, является разумной. Такие ограниченные подходы к машинному обучению, как этот, часто называют искусственным интеллектом, который не является разумным ».
В политехническом институте Ренсселера, Лаборатория Сельмера Брингсйорда строит математические модели человеческих эмоций. Исследование направлено на создание ИИ, который сможет получить высокие баллы по тестам на эмоциональный интеллект, и применить их к людям. Но Брингсйорд, эксперт по ИИ, считает, что любое обучение ИИ является непреднамеренным.
«Но это чисто инженерная работа, и у меня нет таких иллюзий, что ИИ, о котором идет речь, сам имеет эмоции или действительно понимает эмоции», - сказал он в интервью по электронной почте.
Что может пойти не так?
В то время как такие компании, как Cogito, видят светлое будущее в обучении людей с помощью ИИ, другие наблюдатели более осторожны.
Поддерживающий, онлайн-служба психического здоровья, использует ИИ для маршрутизации каждого пользователя на основе любой мысли, которую они выражают, в режиме реального времени в тематическую группу поддержки коллег, которая динамически собирается для пользователей с похожими вопросы.
В каждой группе есть «сверхмощный» модератор-человек, который обеспечивает безопасность текстового чата и отсутствие троллей. выводить, опять же, через ИИ, соответствующие ресурсы, рекомендации и направления прямо в группу беседа. Используя искусственный интеллект, Supportiv обучает своих модераторов умению определять интенсивность эмоциональных потребностей.
«Сочувствие - это мышцы, которые мы развиваем», - сказала Зара Дана, специалист по данным из Supportiv, в интервью по электронной почте.
«Если мы начнем использовать костыль для ходьбы, наши мышцы атрофируются. Я не могу не задаться вопросом, будет ли зависимый работник чувствовать себя уверенно, если однажды система искусственного интеллекта не будет в сети? Способна ли она эффективно выполнять свою работу? Каковы долгосрочные последствия для рабочих? Как бы они справились со сложными социальными ситуациями, в которых отсутствует ИИ? "
Даже если использование ИИ для обучения эмпатии работает, что произойдет, если мы начнем слишком полагаться на ИИ, чтобы тренировать эмоции? Одним из возможных недостатков является то, что люди могут стать более привязанными к роботам, чем к другим людям, потому что роботы не могут выбирать против своей программы, отметил Делио.
«Человеческая способность к свободной воле ставит человеческую свободу в более двусмысленное положение», - сказал Делио. "Сегодня человек может быть милосердным, а завтра - безжалостным; робот будет неизменно проявлять сострадание, если его не обучить иначе ".
Эксперты говорят, что многое может пойти не так, если ИИ научит людей вести себя как люди.
«Мы превратились в социальных животных, и наше сочувствие играет центральную роль в нашей способности общаться с другими и заботиться о коллективах, к которым мы принадлежим».
«Без человеческого надзора ученик мог бы узнать что-нибудь абсолютно безумное», - сказал Брингсьорд.
«Тон и высота голоса - это просто корреляты поведения, без какого-либо содержания. Доллары в пончики, мой голос, когда я преподавал в классе, многие прочитали бы... как указание на то, что я расстроен, в то время как на самом деле я просто полон энтузиазма и хотя бы нуждаюсь в сочувствии ».
Если обучение людей ИИ будет процветать, мы можем полагаться на него. И это не обязательно хорошо.
«Этот тренинг обесценивает человеческие навыки, которые значительны, и переключает внимание на ИИ, как будто они обладают опытом», - сказал Эриксон. «Мы превратились в социальных животных, и наше сочувствие играет центральную роль в нашей способности общаться с другими и заботиться о коллективах, к которым мы принадлежим».