Как ИИ может управлять вашим выбором
Ключевые выводы
- По словам экспертов, алгоритмы искусственного интеллекта и машинного обучения отслеживают поведение человека и могут научиться им управлять.
- Недавно исследователи создали способ находить и использовать уязвимости в том, как люди делают выбор с помощью ИИ.
- По словам одного обозревателя, самым сложным алгоритмом социальных сетей на данный момент является TikTok.
По словам экспертов, алгоритмы искусственного интеллекта (ИИ) и машинного обучения все больше учатся влиять на поведение пользователей.
Исследователи из Австралийского национального научного агентства недавно создали способ находить и использовать уязвимости в том, как люди принимают решения с помощью ИИ. Последнее исследование - это лишь одна из волн систем, управляемых ИИ, предназначенных для манипулирования процессом принятия решений людьми.
«Нет конца множеству способов, которыми ИИ уже влияет на поведение», - сказал Кентаро Тояма, профессор Школа информации Мичиганского университета и автор
«Фактически, если вы когда-либо выполняли поиск в Google и переходили по ссылке, на вас влияла система искусственного интеллекта, которая угадывала ваши интересы и возвращала результаты, которые, по ее мнению, были наиболее актуальны для вас».
AI vs. Люди
В австралийском исследовании, опубликованном в недавняя статья, участники-люди играли в игры против компьютера в различных экспериментах. В первом эксперименте участники нажимали на красные или синие поля, чтобы выиграть деньги.
ИИ был успешен примерно в 70% случаев, изучая модели выбора участников и направляя их к конкретному выбору.
В другом эксперименте участники смотрели на экран и нажимали кнопку, когда им показывали определенный символ, или не нажимали ее, когда предлагали другой. ИИ научился переставлять символы, поэтому участники делали больше ошибок.
Исследователи пришли к выводу, что в результате экспериментов ИИ учился на ответах участников. Затем машина выявила уязвимые места в процессе принятия решений и нацелена на них. По сути, ИИ может манипулировать участниками, заставляя их выполнять определенные действия.
Наблюдатели говорят, что тот факт, что ИИ или машинное обучение могут манипулировать людьми, не должен вызывать удивления.
«ИИ ежедневно влияет на наше поведение», - сказала в интервью по электронной почте Тамара Шварц, доцент кафедры кибербезопасности и делового администрирования Йоркского колледжа Пенсильвании.
«Мы все время слышим об алгоритмах в приложениях социальных сетей, таких как Facebook или Twitter. Эти алгоритмы направляют наше внимание на связанный контент и создают эффект «эхо-камеры», который, в свою очередь, влияет на наше поведение ».
TikTok наблюдает
По словам Шварца, самым сложным алгоритмом социальных сетей на данный момент является TikTok. Приложение анализирует, что вас интересует, как долго вы что-то смотрите и как быстро вы что-то пропускаете, а затем уточняет свои предложения, чтобы вы продолжали смотреть.
«TikTok вызывает гораздо большее увлечение, чем другие платформы, из-за этого алгоритма искусственного интеллекта, который понимает, что вам нравится, как вы учитесь и как вы выбираете информацию», - добавила она. «Мы знаем это, потому что в среднем пользователи проводят в TikTok 52 минуты».
Манипуляция человеческим поведением с помощью искусственного интеллекта может иметь положительное значение, заявил Крис Николсон, генеральный директор компании Pathmind, занимающейся ИИ, в интервью по электронной почте. Например, агентства общественного здравоохранения могут использовать ИИ, чтобы побуждать людей принимать более правильные решения.
"Однако социальные сети, производители видеоигр, рекламодатели и авторитарные режимы ищут способы побудить людей принимать решения, которые не в их интересах, и это даст им новые инструменты для этого ", - добавлен.
По словам Тоямы, этические проблемы, связанные с влиянием ИИ на поведение, часто имеют серьезный характер. ИИ позволяет использовать целенаправленную рекламу, в которой можно использовать индивидуальные предпочтения и слабости.
«Например, система искусственного интеллекта может идентифицировать людей, которые пытаются бросить курить, и засыпать их заманчивой рекламой сигарет», - добавил он.
Не все согласны с тем, что манипулирование человеческим поведением искусственным интеллектом проблематично. Как классическая психология, так и ИИ наблюдают за данными, отметил Джейсон Дж. Корсо, директор Институт искусственного интеллекта Стивенса, в интервью по электронной почте.
"Человеческие ученые, вероятно, лучше умеют обобщать наблюдения и выявлять теории человеческого поведения, которые могут быть более широко применимы, в то время как модели искусственного интеллекта лучше поддаются выявлению специфических нюансов », - сказал Корсо. сказал.
«С этической точки зрения я не вижу разницы между ними».