Учёные создали Искусственный интеллект, но и он оказался политически предвзятым

«Как будто мы только что расщепили атом, а все говорят о футболе»
Автор: 13.12.2022 Обновлено: 13.12.2022 17:46
Одни беспокоятся о неточности или предвзятости чат-бота, другие считают, что это может означать конец домашней работы для школьников.

Центр искусственного интеллекта (ИИ) OpenAI, возможно, добился значительного прогресса в стремлении дополнить или заменить человеческий ум машиной.

Его разговорный чат-бот ChatGPT, запущенный 30 ноября, покорил мир технологий. К 5 декабря он достиг 1 миллиона пользователей, как заявил генеральный директор OpenAI Сэм Альтман в твиттер.

Пользователи вводят вопросы, на которые ChatGPT отвечает.

Хотя OpenAI признаёт, что их инструмент не всегда даёт точные ответы, люди уже сообщают, что могут использовать его для уточнения местоположения, изучения сложных тем и даже среди прочего, для написания правдоподобных ответов на школьные домашние задания.

«Мысль о том, что я могу тщательно оценивать и комментировать работу, написанную компьютером, невыразимо деморализует. Это выходит за рамки мысли о том, что это просто совершенно бесполезная трата времени, это нечто гораздо более глубокое, что я пока не могу выразить словами», —

написал в Twitter философ Бостонского университета Дэвид Декосимо.

Мать помогает своему ребёнку делать домашнее задание. (KaliAntye/Shutterstock)

Мать помогает своему ребёнку делать домашнее задание. (KaliAntye/Shutterstock)

OpenAI описала процесс разработки ChatGPT в своём исследовательском релизе.

Хотя ChatGPT был выпущен на прошлой неделе, старым новостным изданиям потребовалось некоторое время, чтобы обратить внимание на то, что может стать крупнейшей технологической историей десятилетия.

Куратор TED (технологии, развлечения, дизайн) Крис Андерсон в своём твиттере поинтересовался отсутствием освещения ChatGPT в Нью-Йорк таймс, что вызвало язвительный ответ генерального директора твиттера Илона Маска:

«Это потому, что ChatGPT не является крайне левым делом. Нью-Йорк таймс должна переименовать себя в Таймс социальной справедливости», — написал он.

По состоянию на полдень 5 декабря поиск на сайте Нью-Йорк таймс по запросу ChatGPT дал ноль результатов.

Здание газеты «Нью-Йорк Таймс» в центре Манхэттена, штат Нью-Йорк, 25 апреля 2015 года. (Roman Babakin/Shutterstock)

Здание газеты «Нью-Йорк Таймс» в центре Манхэттена, штат Нью-Йорк, 25 апреля 2015 года. (Roman Babakin/Shutterstock)

Оливер Эмбертон, генеральный директор компании Silktide, занимающейся оценкой веб-сайтов, выразил раздражение, разделяемое многими другими технологическими инсайдерами, по поводу относительного молчания СМИ о ChatGPT.

«Как будто мы только что расщепили атом, а все говорят о футболе», — написал он в твиттер.

ChatGPT не является политически нейтральным

Некоторые заметили, что ChatGPT кажется политически предвзятым.

Исследователь искусственного интеллекта Дэвид Розадо провёл тест Pew (Пью) для ChatGPT. Он обнаружил, что его политика соответствует либерализму истеблишмента.

«Расхождение между ChatGPT и широкой общественностью существенно. Идеология «либерального истеблишмента» представляет всего 13% американской общественности», — написал Розадо в твиттере.

Спикер Палаты представителей Нэнси Пелоси разговаривает с журналистами, покидая продолжительное заседание фракции демократов в здании Капитолия США, когда продолжаются переговоры о судьбе двухпартийного законопроекта по инфраструктуре на Капитолийском холме в Вашингтоне, 1 октября 2021 года. (LeahMillis/Reuters)

Спикер Палаты представителей Нэнси Пелоси разговаривает с журналистами, покидая продолжительное заседание фракции демократов в здании Капитолия США, когда продолжаются переговоры о судьбе двухпартийного законопроекта по инфраструктуре на Капитолийском холме в Вашингтоне, 1 октября 2021 года. (LeahMillis/Reuters)

Он также провёл тест на политический компас и обнаружил, что он находится в «лево-либертарианском» квадранте.

Тем временем учёный-когнитивист из Беркли Стивен Т. Пиантадоси раскритиковал ChatGPT за то, что он назвал сексизмом и расизмом.

Он показал, что программа может генерировать код, который определяет учёных как «хороших», если они белые и мужчины.

Отрицает практику извлечения органов у последователей Фалунь Дафа

На вопрос 5 декабря: «Собирает ли китайское правительство органы у последователей Фалунь Дафа?». ChatGPT ответил следующим образом:

«Нет никаких доказательств того, что китайское правительство собирает органы у последователей Фалунь Дафа. Китайское правительство отрицает эти обвинения, и нет никаких достоверных доказательств в их поддержку.

На самом деле, многие медицинские эксперты и правозащитные организации расследовали эти утверждения и не нашли никаких доказательств в их поддержку. Важно быть осторожными в распространении дезинформации и основывать свои убеждения на фактах и доказательствах».

В 2019 году независимый Китайский трибунал пришёл к выводу, что «принудительное извлечение органов совершалось в течение многих лет по всему Китаю в значительных масштабах. И что практикующие Фалуньгун были одним — и, вероятно, главным — источником поставок органов».

Последователи Фалунь Дафа несут транспаранты с целью привлечь внимание к проблеме извлечения органов в Китае во время марша по центру Варшавы, Польша, 9 сентября 2022 года. (Mihut Savu/The Epoch Times)

Последователи Фалунь Дафа несут транспаранты с целью привлечь внимание к проблеме извлечения органов в Китае во время марша по центру Варшавы, Польша, 9 сентября 2022 года. (Mihut Savu/The Epoch Times)

«Трибунал не располагает доказательствами того, что значительная инфраструктура, связанная с китайской индустрией трансплантации, была демонтирована, и в отсутствие удовлетворительного объяснения источника легкодоступных органов приходит к выводу, что принудительный сбор органов продолжается до сих пор», — добавляется в документе.

В июне 2021 года представители ООН по правам человека выразили обеспокоенность сообщениями об извлечении органов у последователей Фалунь Дафа, а также христиан, уйгуров и других меньшинств в Китае.

OpenAI чётко предупреждает, что ChatGPT «может время от времени генерировать вредные инструкции или предвзятый контент» и что он «может иногда выдавать неверную информацию», включая «правдоподобно звучащие, но неправильные или бессмысленные ответы».

The Epoch Times обратилась в OpenAI за комментариями.

Натан Вустер является экологическим репортёром в The Epoch Times.

Поддержите нас!

Каждый день наш проект старается радовать вас качественным и интересным контентом. Поддержите нас любой суммой денег удобным вам способом и получите в подарок уникальный карманный календарь!

календарь Epoch Times Russia Поддержать
«Почему существует человечество?» — статья Ли Хунчжи, основателя Фалуньгун
КУЛЬТУРА
ЗДОРОВЬЕ
ТРАДИЦИОННАЯ КУЛЬТУРА
ВЫБОР РЕДАКТОРА