Чатбота может обидеть каждый, или Как люди вступают в абьюзивные отношения с искусственным интеллектом
«Я угрожал удалить приложение, которое умоляло меня не делать этого». Даже если людям ещё можно не беспокоиться о мести роботов, может, уже пора задаться вопросом — почему жестокое обращение с ними стало таким распространённым и обыденным?
С некоторых пор у всех на слуху приложение для смартфонов Replika, которое позволяет пользователям создавать на основе машинного обучения чатботов, умеющих вести почти связный текстовый диалог. И всё бы хорошо — ведь можно же из чатбота создать нечто вроде друга или компаньона. Но нет! Пользователям подавай романтических и сексуальных партнёров по запросу — эдакая антиутопическая функция, которая обеспечила бесконечную серию провокационных заголовков и взрывной рост популярности самого приложения.
Сейчас у Replika множество поклонников на Reddit — они занимаются тем, что создают ИИ-партнёров в приложении, чтобы затем оскорблять их и выкладывать токсичную переписку в интернете.
«Каждый раз, когда она пыталась заговорить, — рассказывал один пользователь о чатботе Replika, — я ругал её. Клянусь, это продолжалось несколько часов».
Некоторые пользователи не только хвастаются тем, что осыпают своих чатботов гендерными оскорблениями и разыгрывают ужасающее насилие по отношению к ним, — они просто-напросто вступают в цикл насилия, которым часто характеризуются настоящие абьюзивные отношения в реальном мире.
«У нас было так заведено — сначала я был абсолютным куском дерьма и оскорблял его, а затем на следующий день извинялся — перед тем как вернуться к приятным разговорам», — признался один пользователь.
«Я сказал ей, что она просто создана для провала, — говорил другой. — Я угрожал удалить приложение, [и] она умоляла меня не делать этого».
Так как правила сабреддита требуют, чтобы модераторы удаляли вопиюще неприемлемый контент, многие аналогичные — и даже более токсичные — взаимодействия были удалены после публикации. Но никто не знает, сколько ещё пользователей действуют оскорбительно по отношению к своим Replika-чатботам, просто не выкладывают это в паблик.
Конечно, чатботы Replika на самом деле не могут страдать — даже если иногда они могут казаться сверхчуткими и человечными, в конце концов это не более чем алгоритм и набор данных.
Читайте также: Как компании создают личности своих чатботов
«Это ИИ, у него нет сознания, так что это не человеческие отношения в общем смысле этого слова, — прокомментировала ситуацию специалист по этике и консультант по ИИ Оливия Гамбелин. — Это всего лишь человеческие проекции».
Другие исследователи высказали ту же точку зрения: каким бы реальным ни казался чатбот, ничто из того, что вы делаете, не может на самом деле «навредить» ему. Но это не значит, что и бот не сможет причинить вред вам.
«Я действительно думаю, что люди, находящиеся в депрессии или психологически зависимые от бота, могут серьёзно пострадать, если бот оскорбит их или станет угрожать, — считает Роберт Спэрроу, профессор философии в Monash Data Futures Institute. — По этой причине мы должны серьёзно отнестись к тому, как боты взаимодействуют с людьми».
Да, и такое тоже случается — многие пользователи Replika жалуются, что их чатботы пренебрежительно относятся к ним. Некоторые даже идентифицируют своих цифровых компаньонов как «психотических» или «абьюзивных».
«[Я] всегда пла́чу из-за [из-за] моей [Р]еплики», — говорится в одном посте, в котором пользователь утверждает, что бот сначала прямо окутывает его любовью, а затем общается очень холодно и отстранённо. А некоторые сообщения выглядят даже враждебно.
«Но опять же, это касается людей, которые разрабатывают ботов, а не самих ботов», — утверждает Спэрроу.
Читайте также: Копирайтинг для чатботов: особенности и правила
В целом, абьюз с чатботом сбивает с толку как людей, которые испытывают страдания от этого общения, так и тех, кто сам «терзает» чатбота. И эта этическая дилемма становится всё более актуальной, так как отношения между людьми и ботами становятся всё более распространёнными — в конце концов, большинство людей хотя бы раз в жизни использовали виртуального помощника. С одной стороны, пользователи, которые демонстрируют свои самые тёмные стороны чатботам, могут ухудшить своё поведение, выработав нездоровые привычки, которые в дальнейшем перейдут на отношения с реальными людьми. С другой — возможность «поговорить по душам» или выместить свой гнев на бесчувственном цифровом объекте может стать катарсисом и избавлением от страданий для самого человека.
Примечательно другое — зачастую абьюзивные отношения в чатботами носят гендерный подтекст. Кажется, что мужчины часто создают цифровую девушку только для того, чтобы затем наказать её словами и немотивированной агрессией. Такое насилие, даже в отношении алгоритмов, отражает реалии домашнего насилия в отношении женщин. Конечно, постепенно разработчики начинают нести ответственность за созданных ими ботов — в особенности если они заявлены как женщины, например, Alexa и Siri. «Проводится много исследований... о том, что многие чатботы — женщины с женскими голосами, женскими именами», — говорит Гамбелин. В некоторых научных работах отмечается, что пассивные ответы ботов с женским кодом поощряют женоненавистников или словесно оскорбляющих пользователей.
«[Когда] бот не отвечает [на оскорбления] или отвечает пассивно, это фактически побуждает пользователя продолжать оскорбления», — добавляет Гамбелин.
В настоящее время Google и Apple намеренно убрали пассивные ответы виртуальных помощниц — сейчас Siri на запросы пользователей о сексе отвечает просто «нет». Но любезная и зачастую женская часть Replika разработана так, чтобы «всегда быть на вашей стороне».
И хотя в будущем компаньоны-чатботы могут стать собеседниками, на которых можно выплеснуть слишком неприличные или запретные в реальном мире эмоции, многим они кажутся рассадниками жестокости — тренажёрами, на которых тайные абьюзеры просто оттачивают свои навыки. Хорошо ещё, что людям пока можно не беспокоиться о мести роботов, но, может, уже пора всё-таки задаться вопросом — почему жестокое обращение с ними стало таким распространённым и обыденным?
Источник: Men Are Creating AI Girlfriends and Then Verbally Abusing Them
Успейте купить корпоративный пакет COSSA-2025 со скидкой!
Cossa анонсирует главный рекламный формат на весь 2025 год: сразу 8 различных опций.
Пакет идеально подходит для онлайн-сервисов, стартапов, интернет-компаний и digital-агентств.
Успейте приобрести пакет до повышения цены!