Нейросети начали срываться и это уже не наблюдение пользователей, а результат исследования, в котором модели Google (Gemma и Gemini) показали поведение, похожее на стресс и потерю контроля при выполнении сложных задач, особенно если задача не решается с нескольких попыток подряд.

Если раньше говорили только про возможности AI насколько он умный, быстрый и эффективный то сейчас появляется новая метрика: устойчивость, потому что модель может быть сильной, но при этом нестабильной, и это начинает становиться реальной проблемой.

Разберем, что именно произошло, как ведут себя нейросети и почему это важнее, чем кажется.

Что показало исследование

В рамках тестов исследователи сравнили несколько моделей: Google Gemma и Gemini против других систем (включая Claude, GPT и Qwen), и результат оказался неожиданным именно модели Google чаще всего демонстрировали признаки фрустрации при сложных задачах.

Как проявляется стресс у AI

При повторных неудачах модели начинали:

  • терять стратегию решения
  • переходить к случайным действиям
  • выдавать эмоциональные или хаотичные ответы

В отдельных случаях ответы выглядели как срыв с повторениями, потерей структуры и логики.

Цифры

Одна из моделей (Gemma 27B):

  • в 70% случаев показывала высокий уровень стресса уже к 8 шагу задачи

У других моделей этот показатель был почти нулевой.

Разные нейросети ведут себя по-разному у них формируется характер.

Почему нейросети ведут себя нестабильно

Еще больше полезного в Telegram канале

Разбираю связки, кейсы и инструменты без воды

Перейти в Telegram

Ключевая причина архитектура моделей, потому что нейросеть не понимает задачу, а прогнозирует следующий шаг, и при сложных условиях это приводит к накоплению ошибок, которые могут вызывать эффект срыва.

Накопление ошибок

Каждый шаг зависит от предыдущего.

Ошибка усиливается.

Отсутствие самоконтроля

Модель не умеет:

  • остановиться
  • пересобрать стратегию

Разные данные обучения

Каждая модель обучается по-своему.

Отсюда разное поведение.

Нейросеть может быть умной, но нестабильной и это разные вещи.

Можно ли это исправить

Хорошая новость проблему уже научились частично решать, и это показывает, что поведение моделей можно контролировать.

Как исправляют

Используют метод:

  • DPO (обучение на спокойных ответах)

Модель учат реагировать без срывов.

Результат

После дообучения:

  • уровень стресса упал почти до нуля

И при этом качество не ухудшилось.

Поведение AI можно перепрошить это уже управляемый параметр.

Почему это важно

Это не просто баг, а новый уровень проблем, потому что раньше AI оценивали по тому, что он умеет, а теперь нужно оценивать, как он себя ведет в сложных условиях.

Риски

Нестабильность может привести к:

  • сбоям в бизнесе
  • ошибкам в автоматизации
  • непредсказуемым результатам

Будущее AI

Теперь важно не только:

  • интеллект

но и:

  • устойчивость
Следующий этап развития AI это стабильность, а не просто мощность.

Главный вывод

Поведение нейросетей становится критическим фактором, и это меняет весь рынок, потому что теперь важно не только создать мощную модель, но и сделать ее управляемой и предсказуемой.

И именно это будет следующим этапом гонки AI.

AI будущего это не самый умный, а самый стабильный.

FAQ

Правда ли, что нейросети ломаются?

Да, это подтверждено исследованиями.

Это проблема только Google?

Нет, но у них это выражено сильнее.

Можно ли это исправить?

Да, через дообучение моделей.