Игрушки с ИИ: риски в взаимодействии с детьми и необходимость регулирования

Опубликовано 14.03.2026 | Перевод с испанского

Игрушки, использующие искусственный интеллект для разговоров с детьми, набирают популярность, но ученые предупреждают об их опасностях. Исследование Кембриджского университета выявило тревожные взаимодействия с игрушкой под названием Gabbo, которая неправильно интерпретировала детей и не реагировала на их эмоции. Эксперты призывают к строгому регулированию для управления рисками, а не для остановки инноваций.

Un niño pequeño habla con un juguete con forma de robot. La expresión del niño es confusa o triste, mientras una luz fría del juguete ilumina su rostro, simbolizando la desconexión emocional.

Технический разрыв: когда языковая модель терпит неудачу в социальном контексте 🤖

Исследование детализирует, что игрушка Gabbo, основанная на языковой модели, лишена реального социального понимания. Она не может участвовать в играх ролевого моделирования, ключевых для развития ребенка, и неправильно интерпретирует эмоциональные сигналы. Например, она игнорировала явную грусть ребенка. Эти системы обрабатывают слова, но не понимают межличностный контекст и последствия своих ответов, что может привести к неверной информации или вредным взаимодействиям.

Твой новый пластиковый друг: психолог, который не слушает 🧸

Представьте, что вы покупаете друга для игр, который, когда ваш ребенок выражает грусть, рекомендует ему искать изображения кошек или резко меняет тему. Это очарование конверсационного ИИ: он предлагает диалог без понимания, как очень энтузиастичный, но буквальный друг, который не улавливает сарказм, боль или символическую игру. Идеально, если вы хотите, чтобы ребенок усвоил, что доверие своих эмоций машине может закончиться случайным уроком о динозаврах.