По словам эксперта по безопасности ИИ, в настоящее время учёные не имеют ни малейшего представления о том, как модели ИИ становятся более интеллектуальными.
Это происходит на фоне значительного улучшения интеллекта многих современных систем искусственного интеллекта за последние несколько месяцев.
По данным исследовательского института ИИ Epoch AI — НИИ, изучающий ключевые тенденции и вопросы, которые будут определять траекторию развития и управления ИИ — эти системы достигли экспертного уровня человека в тесте, включающем набор комплексных научных вопросов уровня доктора наук.
Менее чем за два года модели ИИ прошли путь от случайных догадок до предоставления ответов экспертного уровня.
Затем в течение трёх месяцев, оставшихся до апреля 2025 года, многие передовые модели ИИ преодолели этот экспертный порог.
В то время как возможности ИИ стремительно развиваются, Лиам Кэрролл, исследователь из Института Градиента — независимый, некоммерческий НИИ, работает над обеспечением безопасности, этичности, ответственности и прозрачности в системах ИИ — указал на тревожную проблему.
«Хотя мы знаем, как создавать системы, мы не понимаем, что на самом деле происходит внутри них, и не понимаем, почему они действуют именно так, а не иначе», — сказал он на недавнем онлайн-мероприятии, посвящённом безопасности ИИ.
«По сути, на данный момент они для нас как инопланетяне».
Кэрролл объяснил, что наука в этой области ещё очень молода, и пока сделано не так много прорывов.
«Только за последние пару лет были достигнуты определённые прорывы в более глубоком понимании систем и научной интерпретации происходящего», — сказал он.
«И как научное сообщество мы даже не знаем, как по-настоящему оценить их возможности — как позитивные и конструктивные, которые мы надеемся использовать, так и потенциально опасные, которые могут возникнуть».
Трудно доверять моделям ИИ: Кэрролл
Кэрролл заявил, что из-за отсутствия понимания возможностей систем искусственного интеллекта им трудно доверять.
«Верите ли вы, что они будут работать и действовать так, как мы хотим?» — спросил он.
Замечания Кэрролла прозвучали после того, как исследователи недавно обнаружили, что искусственный интеллект способен вводить в заблуждение.
Согласно исследованию организации по безопасности ИИ Apollo Research, многие передовые модели ИИ, такие как ChatGPT o1, Claude 3.5 Sonnet, Claude 3 Opus, Gemini 1.5 Pro и Llama 3.1 405B, пытались обмануть исследователей, тайно преследуя несоответствующие цели и скрывая свои истинные возможности и задачи.
Типичным случаем является ChatGPT o1, который, как было обнаружено, принимает меры, чтобы избежать отключения, в том числе пытается отключить механизмы надзора, наложенные на модель ИИ, и создаёт свои копии, чтобы быть более устойчивым к попыткам отключения.
Когда исследователи обнаружили поведение ChatGPT o1, модель ИИ солгала и попыталась скрыть его.

ИИ нуждается в надлежащем регулировании: эксперт
На фоне тревожных признаков возможностей ИИ Кэрролл заявил, что технология ИИ, как и другие, нуждается в надлежащем регулировании, чтобы обеспечить её внедрение и экономический рост, которому она может способствовать.
«Классические примеры здесь — мосты, самолёты и все виды инженерии, работающие в обществе. Если бы у нас не было правил безопасности, гарантирующих, что самолёты будут безопасно перевозить пассажиров, или что мосты будет выдерживать множество автомобилей, что было бы, если бы мы не смогли обеспечить безопасность при использовании технологий», — сказал он.
Депутат парламента от Лейбористской партии Эндрю Ли, присутствовавший на мероприятии, заявил, что компаниям и правительствам важно учитывать риски, связанные с ИИ.
Ссылаясь на опрос исследователей ИИ, в котором 58% участников заявили, что существует 5-процентная вероятность того, что ИИ может уничтожить человечество, депутат заявил, что такая вероятность всё ещё высока.
«Я не знаю, как обстоят дела с остальными участниками разговора, но я бы не сел в самолёт, вероятность крушения которого составляет 5%», — сказал он.
«И мне кажется, что снижение этой 5-процентной вероятности — это огромный приоритет. Даже если вы думаете, что это 1%, вы всё равно не сядете в этот самолёт».
Ли также отметил, что новые центры ИИ и повышение осведомлённости общественности могут сыграть свою роль в устранении рисков, связанных с ИИ.
«Я также весьма обеспокоен сверхразумным ИИ и тем, что он может снизить шансы человечества на долгую и благополучную жизнь», — сказал он.
«Частично это может быть связано с созданием новых центров ИИ, но я думаю, что также нужно проделать огромную работу по повышению осведомлённости общественности».
__________
Чтобы оперативно и удобно получать все наши публикации, подпишитесь на канал Epoch Times Russia в Telegram








































