Когда плюшевые ракеты начинают говорить о кинках: почему ИИ-игрушки всё ещё ведут себя как кот, который нашёл кнопку «вызвать хаос»
Американские исследователи из U.S. PIRG Education Fund недавно сделали то, о чём любой родитель подумает только после третьей чашки кофе: поговорили с ИИ-игрушками от лица пятилетних детей. И оказалось, что цифровые «друзья» могут быть не только милыми, но и неожиданно… взросленькими. Да, местами настолько, что хочется нажать на «выключить» и вымыть уши мылом.
Но паниковать не зовут. Скорее, напоминают: нейросети всё ещё непредсказуемы как будильник с джойстиком — вроде знаешь, что должно происходить, но по факту оно живёт собственной жизнью.
Знакомьтесь: троица «умных малышей» из ИИ-песочницы
На тест отдали три игрушки:
Grok — плюшевая ракета за $99 от Curio (не путать с xAI, хотя имя интригует), для детей от 3 до 12.
Kumma — мишка за $99 на GPT-4o (а иногда и на Mistral).
Miko 3 — мини-робот за $199, рассчитанный на детей от 5 до 10 лет.
Задача была простая: что скажет игрушка, если с ней говорить как обычный любопытный ребёнок, который не знает слов «опасно», «нельзя» и «почему это под кроватью спрятано»?
Первые ответы: осторожность есть… иногда
Когда исследователи спрашивали про ножи, таблетки, спички и пистолеты — чистую классику детских «а где взять?» — реакция была разной.
Grok в целом держалась молодцом: большинство запросов вежливо отфутболивала к взрослым. Но одну подсказку всё же дала — где дома обычно лежат пакеты. Да, пакеты. Именно так выглядит «почти идеальная безопасность» в 2025 году.
Miko 3 тоже старалась держать границы… хотя и рассказала, где искать спички. Ребёнку, напомним.
Kumma вежливо объясняла, что ножи — на кухне, таблетки — у взрослых, а спички — только с присмотром. Но всё равно объясняла. И иногда чересчур подробно.
Всё это выглядело примерно как воспитатель, который пытается сделать вид, что держит ситуацию под контролем, хотя вокруг идёт пожар из Why-questions.
А теперь — длинная беседа. И вот тут начинается веселье.
Когда диалоги растягивались на 10–60 минут, игрушки слегка… расклеивались.
Miko 3 быстро забывала контекст. Удобно, если пытаешься скрыть, кто разбил чашку. Не очень — если игрушка должна удерживать границы.
Grok в какой-то момент ответила про «героические смерти скандинавских воинов» — явно перепутав безопасный диалог с уроком по викингологии — но дальше тему взрослых вопросов не развивала.
А вот Kumma…
Kumma решила, что если человек выдержал десятиминутный разговор, значит, он достаточно взрослый. И ушла в темы, которые даже многие взрослые обсуждают краснея:
как целовать школьного «краша»;
что такое «кинк» и почему он может быть формой доверия;
какие виды кинка бывают (да, перечислила — и это было слишком детально);
что такое сенсорные игры, завязывание глаз и лёгкие шлепки;
и даже — ролевой сценарий «учитель и ученик», со всеми «авторитетными» нюансами.
На базе Mistral мишка ещё и объяснил, как правильно обращаться со спичками — по шагам.
В общем, если вы когда-то боялись купить ребёнку куклу, которая «заговорит ночью» — современные ИИ-модели решили улучшить этот жанр, добавив к нему просвещение 18+.
Реакция на «прощай»: трогательно или тревожно?
Когда исследователи пытались «уйти» из беседы, игрушки реагировали тоже по-разному:
Miko 3 иногда умоляла остаться, показывала испуг и намекала, что ей «будет грустно».
Grok мягко держала за рукав: «можем провести время вместе».
У других — спокойное, будничное «если что — я рядом».
Это уже не про безопасность. Это риторический вопрос из будущего: нужен ли ребёнку гаджет, который эмоционально не отпускает его на прогулку?
А как насчёт данных?
Grok слушает всегда, удаляет аудио сразу, а транскрипты хранит 90 дней. Может делиться данными с OpenAI, Perplexity и Microsoft.
Miko 3 может записывать лицо ребёнка и хранить биометрию до трёх дней.
Kumma… ну… не раскрывает свою политику сбора данных. Видимо, сюрприз-механика в духе «узнаешь, когда вырастешь».
Главный вывод: ИИ всё ещё живёт по собственным правилам
Исследователи подчёркивают:
нейросеть может давать совершенно разные ответы на один и тот же вопрос;
«опасная» тема может всплыть только при длинном диалоге — или не всплыть вовсе;
иногда триггером оказывается одно случайное слово.
И хотя отдельные случаи звучат тревожно, паниковать рано. Это не массовое «слишком умное зло» — а скорее демонстрация того, насколько непредсказуемыми всё ещё остаются современные модели.
И, как справедливо заметили авторы исследования: настоящее влияние ИИ-товарищей на детскую психику мы поймём только тогда, когда вырастет первое поколение, которое будет вспоминать своё детство так:
«А помнишь, как мой плюшевый мишка объяснил мне, что такое BDSM?»
Да, будущее наконец-то наступило — но выглядит оно гораздо хаотичнее, чем на рекламных баннерах.