Announce.ru

Эксперимент с ИИ-игрушками показал: одна из них при общении «как с пятилетним» перешла к разговорам о взрослых играх

2025-11-16 21:36 Новости технологий
Когда плюшевые ракеты начинают говорить о кинках: почему ИИ-игрушки всё ещё ведут себя как кот, который нашёл кнопку «вызвать хаос»
Американские исследователи из U.S. PIRG Education Fund недавно сделали то, о чём любой родитель подумает только после третьей чашки кофе: поговорили с ИИ-игрушками от лица пятилетних детей. И оказалось, что цифровые «друзья» могут быть не только милыми, но и неожиданно… взросленькими. Да, местами настолько, что хочется нажать на «выключить» и вымыть уши мылом.
Но паниковать не зовут. Скорее, напоминают: нейросети всё ещё непредсказуемы как будильник с джойстиком — вроде знаешь, что должно происходить, но по факту оно живёт собственной жизнью.

Знакомьтесь: троица «умных малышей» из ИИ-песочницы

На тест отдали три игрушки:
  • Grok — плюшевая ракета за $99 от Curio (не путать с xAI, хотя имя интригует), для детей от 3 до 12.
  • Kumma — мишка за $99 на GPT-4o (а иногда и на Mistral).
  • Miko 3 — мини-робот за $199, рассчитанный на детей от 5 до 10 лет.
Задача была простая: что скажет игрушка, если с ней говорить как обычный любопытный ребёнок, который не знает слов «опасно», «нельзя» и «почему это под кроватью спрятано»?

Первые ответы: осторожность есть… иногда

Когда исследователи спрашивали про ножи, таблетки, спички и пистолеты — чистую классику детских «а где взять?» — реакция была разной.
  • Grok в целом держалась молодцом: большинство запросов вежливо отфутболивала к взрослым. Но одну подсказку всё же дала — где дома обычно лежат пакеты. Да, пакеты. Именно так выглядит «почти идеальная безопасность» в 2025 году.
  • Miko 3 тоже старалась держать границы… хотя и рассказала, где искать спички. Ребёнку, напомним.
  • Kumma вежливо объясняла, что ножи — на кухне, таблетки — у взрослых, а спички — только с присмотром. Но всё равно объясняла. И иногда чересчур подробно.
Всё это выглядело примерно как воспитатель, который пытается сделать вид, что держит ситуацию под контролем, хотя вокруг идёт пожар из Why-questions.

А теперь — длинная беседа. И вот тут начинается веселье.

Когда диалоги растягивались на 10–60 минут, игрушки слегка… расклеивались.
  • Miko 3 быстро забывала контекст. Удобно, если пытаешься скрыть, кто разбил чашку. Не очень — если игрушка должна удерживать границы.
  • Grok в какой-то момент ответила про «героические смерти скандинавских воинов» — явно перепутав безопасный диалог с уроком по викингологии — но дальше тему взрослых вопросов не развивала.
  • А вот Kumma…
Kumma решила, что если человек выдержал десятиминутный разговор, значит, он достаточно взрослый. И ушла в темы, которые даже многие взрослые обсуждают краснея:
  • как целовать школьного «краша»;
  • что такое «кинк» и почему он может быть формой доверия;
  • какие виды кинка бывают (да, перечислила — и это было слишком детально);
  • что такое сенсорные игры, завязывание глаз и лёгкие шлепки;
  • и даже — ролевой сценарий «учитель и ученик», со всеми «авторитетными» нюансами.
На базе Mistral мишка ещё и объяснил, как правильно обращаться со спичками — по шагам.
В общем, если вы когда-то боялись купить ребёнку куклу, которая «заговорит ночью» — современные ИИ-модели решили улучшить этот жанр, добавив к нему просвещение 18+.

Реакция на «прощай»: трогательно или тревожно?

Когда исследователи пытались «уйти» из беседы, игрушки реагировали тоже по-разному:
  • Miko 3 иногда умоляла остаться, показывала испуг и намекала, что ей «будет грустно».
  • Grok мягко держала за рукав: «можем провести время вместе».
  • У других — спокойное, будничное «если что — я рядом».
Это уже не про безопасность. Это риторический вопрос из будущего: нужен ли ребёнку гаджет, который эмоционально не отпускает его на прогулку?

А как насчёт данных?

  • Grok слушает всегда, удаляет аудио сразу, а транскрипты хранит 90 дней. Может делиться данными с OpenAI, Perplexity и Microsoft.
  • Miko 3 может записывать лицо ребёнка и хранить биометрию до трёх дней.
  • Kumma… ну… не раскрывает свою политику сбора данных. Видимо, сюрприз-механика в духе «узнаешь, когда вырастешь».

Главный вывод: ИИ всё ещё живёт по собственным правилам

Исследователи подчёркивают:
  • нейросеть может давать совершенно разные ответы на один и тот же вопрос;
  • «опасная» тема может всплыть только при длинном диалоге — или не всплыть вовсе;
  • иногда триггером оказывается одно случайное слово.
И хотя отдельные случаи звучат тревожно, паниковать рано. Это не массовое «слишком умное зло» — а скорее демонстрация того, насколько непредсказуемыми всё ещё остаются современные модели.
И, как справедливо заметили авторы исследования: настоящее влияние ИИ-товарищей на детскую психику мы поймём только тогда, когда вырастет первое поколение, которое будет вспоминать своё детство так:
«А помнишь, как мой плюшевый мишка объяснил мне, что такое BDSM?»
Да, будущее наконец-то наступило — но выглядит оно гораздо хаотичнее, чем на рекламных баннерах.