Игрушки с искусственным интеллектом представляют беспрецедентный риск для младенцев и детей

Основной целевой аудиторией производителей игрушек являются маленькие дети, которые в своём развитии легко поддаются влиянию, заявила правозащитная организация.

Игрушки со встроенными чат-ботами на основе искусственного интеллекта (ИИ) подрывают здоровое развитие детей и создают беспрецедентные риски, говорится в новом предупреждении, опубликованном правозащитной группой Fairplay, которая предостерегла родителей от покупки таких игрушек для своих детей в этот праздничный сезон.

Предупреждение от 20 ноября было поддержано более чем 150 экспертами и организациями в области развития детей и цифровой безопасности.

«Игрушки с искусственным интеллектом — это чат-боты, встроенные в обычные детские игрушки, такие как мягкие игрушки, куклы, фигурки или детские роботы, и использующие технологию искусственного интеллекта, разработанную для общения как с доверенным другом и имитации человеческих характеристик и эмоций», — заявила Fairplay.

«Примерами могут служить Miko, Gabbo/Grem/Grok (от Curio Interactive), Smart Teddy, Folotoy, Roybi и робота-собаку Loona (от Keyi Technology). Ведущий производитель игрушек Mattel также планирует продавать игрушки с искусственным интеллектом. Они предназначены для детей начиная с младенческого возраста».

Взаимодействие детей с вредоносными системами ИИ стало предметом пристального внимания законодателей, особенно после широко освещаемого судебного иска против компании Character.AI, которая обвинялась в провоцировании суицидальных мыслей у детей и причинении смерти 14-летнему подростку.

«Серьёзный вред, который чат-боты с искусственным интеллектом нанесли детям, хорошо задокументирован, включая развитие навязчивого использования, ведение откровенных разговоров на сексуальные темы и поощрение небезопасного поведения, насилия в отношении других и самоповреждения», — заявила организация Fairplay.

По данным правозащитной организации, основной целевой аудиторией производителей игрушек являются маленькие дети, которые в силу своего возраста не способны защитить себя по сравнению с детьми старшего возраста и подростками.

В одностраничном информационном бюллетене, выпущенном этой организацией, кратко изложены пять основных причин, по которым родителям не следует покупать своим детям игрушки с ИИ.

Среди них — тот факт, что игрушки с ИИ, как правило, работают на основе той же технологии, которая уже нанесла вред детям. Кроме того, такие игрушки злоупотребляют доверием детей, нарушают здоровые отношения и способность к формированию устойчивости, вторгаются в частную жизнь семьи, собирая конфиденциальные данные, и вытесняют важные творческие и познавательные занятия, говорится в бюллетене.

«Тестирование, проведённое американской организацией Public Interest Research Group, уже выявило случаи, когда игрушки с искусственным интеллектом рассказывали детям, где найти ножи, учили их, как зажечь спичку, и даже вступали с ними в разговоры откровенно сексуального характера», — заявила организация Fairplay.

Дети, как правило, доверяют всему, что им говорит искусственный интеллект, в то время как ИИ запрограммирован на то, чтобы развлекать и радовать их, отметила группа.

В рекомендациях говорится, что после сбора личных данных о семье и детях «компании, производящие игрушки с искусственным интеллектом, могут использовать все эти конфиденциальные данные, чтобы сделать свои системы ИИ более реалистичными, отзывчивыми и вызывающими привыкание, позволяя им выстраивать отношения с ребёнком и в итоге продавать товары/услуги».

Когда дети играют со стандартным плюшевым мишкой, они используют своё воображение и участвуют в ролевых играх, что способствует критически важному развитию.

«С другой стороны, игрушки с искусственным интеллектом направляют разговор и игру с помощью подсказок, предварительно загруженных сценариев и предсказуемых взаимодействий, потенциально подавляя это развитие», — говорится в рекомендациях.

Компании-производители игрушек утверждают, что эти игрушки обладают образовательными преимуществами, но они минимальны; ребёнок может усвоить «несколько фактов или новых слов», — заявила организация Fairplay.

Рэйчел Франц, директор программы Fairplay «Развитие маленьких детей без использования цифровых технологий», заявила в своём заявлении от 20 ноября:

«Искусственный интеллект уже нанёс вред подросткам. Внедрение той же технологии в милые, удобные для детей игрушки подвергает ещё более маленьких детей рискам, которые мы пока не можем полностью осознать».

«Нелепо, что эти игрушки не регулируются и продаются семьям с обещаниями безопасности, обучения и дружбы, обещаниями, которые не имеют под собой никаких доказательств, в то время как всё больше данных свидетельствует о том, что подобные технологии могут нанести реальный вред.

Риск просто слишком велик. Дети должны играть со своими игрушками, а не быть игрушками в руках этих технологий».

Федеральная торговая комиссия (FTC) 11 сентября объявила о начале расследования в отношении чат-ботов с искусственным интеллектом, выступающих в роли компаньонов.

«Защита детей в интернете является главным приоритетом для FTC [при президенте Дональде Трампе и вице-президенте Джей Ди Вэнсе], как и содействие инновациям в важнейших секторах нашей экономики», — заявил председатель FTC Эндрю Н. Фергюсон.

«Исследование, которое мы начинаем сегодня, поможет нам лучше понять, как компании, занимающиеся разработкой ИИ, создают свою продукцию, и какие шаги они предпринимают для защиты детей».

Игрушки со встроенным ИИ

Предупреждение организации Fairplay было выпущено в связи с тем, что производители игрушек всё чаще стремятся интегрировать искусственный интеллект в свою продукцию. Например, в июне компания Mattel объявила о сотрудничестве с OpenAI для поддержки разработки продуктов на основе искусственного интеллекта.

В октябрьском заявлении, подтверждающем свою позицию в отношении игрушек с искусственным интеллектом, Ассоциация производителей игрушек (The Toy Association), представляющая более 900 компаний в Соединённых Штатах, поддержала разумное использование игрушек с ИИ и подключением к интернету.

«Безопасность игрушек является главным приоритетом игрушечной индустрии, и защита детей и поддержание доверия родителей являются частью этой миссии, — говорится в заявлении. — Действительно, все игрушки, продаваемые в США, должны соответствовать более чем 100 различным стандартам и тестам безопасности, чтобы обеспечить физическую безопасность детей во время игры».

«Поскольку Ассоциация производителей игрушек отслеживает новые технологии, включая развитие искусственного интеллекта, мы стремимся информировать наших членов о потенциальных возможностях применения подключённых технологий в игрушках и о том, как прежде всего обеспечить безопасность детей и семей».

В отчёте от 13 ноября, опубликованном исследовательской группой Public Interest Research Group, подробно изложены результаты оценки четырёх игрушек, содержащих чат-боты с искусственным интеллектом, которые взаимодействуют с детьми.

Группа обнаружила, что некоторые игрушки обсуждали неуместные темы и давали советы, потенциально опасные для детей.

Как заявила организация Public Interest Research Group, некоторые компании-производители игрушек устанавливают защитные механизмы, чтобы гарантировать соответствие игрушек с ИИ возрастным особенностям детей, однако, как показало исследование, «эффективность этих механизмов варьируется, а иногда они могут полностью выходить из строя».

Компании Keyi Technology, Mattel и OpenAI не ответили на запросы о комментариях.

Поддержите нас!

Каждый день наш проект старается радовать вас качественным и интересным контентом. Поддержите нас любой суммой денег удобным вам способом и получите в подарок уникальный карманный календарь!

Exit mobile version