
Ученые выяснили, когда ИИ будет представлять для человечества реальную угрозу
Развитие искусственного интеллекта в последние несколько лет просто поражает воображение. В настоящее время стало обыденностью то, что еще каких-то 5 лет назад казалось фантастикой. Например, большие языковые модели, такие как ChatGPT, помогают решать сложнейшие задачи и проходить экзамены, а генерация видео достигла такого уровня, что нейросети стали использовать даже профессиональные киностудии. Но вместе с ростом возможностей увеличиваются и опасения – в какой-то момент ИИ может достичь такого уровня, что вместо помощника станет источником проблем. Недавнее исследование ученых из Университета Джорджа Вашингтона показало, когда это может произойти.
Как исследователи рассчитали критический момент
Ученые из Университета Джорджа Вашингтона разработали математическую модель, позволяющую предсказать “переломный момент”, когда ИИ перестает быть надежным. Работа команды во главе с профессором Нилом Джонсоном показала – сбой в поведении ИИ наступает, когда система перегружается сложной информацией, теряет фокус и начинает выдавать ошибочные или вымышленные данные — так называемые галлюцинации.
Для расчета ученые использовали формулу на основе скалярных произведений векторов. Она учитывает, насколько сложными являются пользовательские запросы и как они взаимодействуют с особенностями обучения модели. Выяснилось, что слишком запутанные или перегруженные данными запросы повышают вероятность ошибок. Причем фактор вежливости — насколько “вежливо” человек формулирует запрос — на надежность ответа практически не влияет.
Почему ИИ становится опасным
По мнению авторов исследования, превращение ИИ из помощника в потенциальную угрозу происходит внезапно, что делает ситуацию особенно опасной. Надежная система может за считанные минуты начать генерировать поток недостоверной информации, вводя пользователей в заблуждение. Это может привести к распространению ложных данных, ошибочным решениям и даже стать угрозой в критически важных сферах вроде медицины или управления инфраструктурой.

Нейросети могут начать генерировать потоки недостоверной информации
Надо сказать, что уже сейчас ИИ нередко вводит людей в заблуждение. Ранее мы рассказывали о том, как нейросеть своими советами чуть не убила человека. Но угроза связана не только с ошибками в фактах. Чем мощнее и автономнее становятся ИИ-системы, тем выше риск, что их поведение будет трудно предсказать. На этом фоне вопрос безопасности становится все более актуальным.
Что говорят эксперты о рисках ИИ
Ведущие мировые специалисты неоднократно высказывались о возможных угрозах, связанных с развитием искусственного интеллекта. Профессор Йошуа Бенджио, один из основателей глубокого обучения, призывает к ужесточению регулирования ИИ. Он предупреждает, что без надзора мощные модели могут причинить реальный вред обществу — как в плане дезинформации, так и в более серьезных аспектах, вроде принятия решений в автоматизированных системах.
Сэм Альтман, глава OpenAI, также подчеркивает, что даже современные ИИ-системы способны делать ошибки. Например, одно из исследований выявило у ведущих нейросетей “признаки деменции”. Неконтролируемое развитие ИИ, по мнению Сэм Альтмана, приведет к катастрофическим последствиями. Он говорит о необходимости строгих рамок, которые помогут направить это развитие в безопасное русло.

Некоторые ученые считают, что опасность ИИ сильно преувеличена
Однако существуют и более оптимистичные точки зрения. Так, профессор Ян Лекун из Meta считает, что текущие ИИ-системы все еще далеки от автономного мышления и самосознания. По его мнению, технологии полностью управляемы и их опасность преувеличена — проблема кроется скорее в их неправильном использовании, чем в самих моделях.
Как предотвратить угрозу ИИ
Одним из способов избежать проблем является правильная формулировка запросов. Ученые рекомендуют использовать точные, ясные и короткие запросы без лишних деталей. Чем меньше нагружена система, тем лучше она справляется с задачами и тем ниже вероятность ошибок.

Ученые призывают грамотно пользоваться нейросетями
Кроме того, необходимы постоянные проверки моделей, контроль качества выдаваемой информации и создание стандартов безопасности для ИИ-систем. Уже сегодня компании и исследовательские центры разрабатывают такие меры, чтобы предотвратить непредсказуемое поведение машин в будущем.
Обязательно посетите наши каналы Дзен и Telegram, здесь вас ждут самые интересные новости из мира науки и последние открытия!
Подводя итоги, можно сказать, что развитие искусственного интеллекта открывает огромные возможности, но и ставит перед человечеством серьезные вызовы. Даже самый продвинутый ИИ может стать источником ошибок и угроз. Чтобы избежать катастрофических последствий, необходимо уже сейчас вкладывать усилия в регулирование и тестирование. От может зависеть безопасность миллионов людей.