Как удалить фон из видео при помощи нейросети

Как удалить фон из видео при помощи нейросети. Благодаря нейросетям, скоро мы совсем забудем, что такое хромакей. Источник изображения: bogatyr.club. Фото.

Благодаря нейросетям, скоро мы совсем забудем, что такое хромакей. Источник изображения: bogatyr.club

Хотите сделать видео более профессиональным, стильным или просто скрыть беспорядок за спиной? Раньше для этого требовался зеленый экран (хромакей) и сложный монтаж, но теперь все проще — нейросети могут удалять фон за секунды. Будь то создание контента для ТикТока, запись онлайн-курса или просто забавный ролик для соцсетей, современные технологии позволяют легко заменить окружение без лишних хлопот. В этой статье разберем, как именно работает удаление фона с помощью нейросети и какие инструменты помогут вам справиться с этим задачей.

Нейросеть для удаления фона

Нейросеть убирающая фон лучше всего — это BEN2. Эта мощная модель была выпущена относительно недавно и позволяет убрать фон из фотографии и видео всего за пару секунд.

В отличие от традиционных методов, требующих сложного монтажа или хромакея, BEN2 справляется с задачей мгновенно, даже если в кадре присутствуют динамичные объекты, такие как волосы, тени или движущиеся детали.

Нейросеть для удаления фона. Чуть ниже мы попробуем удалить фон из этой картинки. Источник: wallhaven.cc. Фото.

Чуть ниже мы попробуем удалить фон из этой картинки. Источник: wallhaven.cc

Если углубляться в детали, нейронка так хорошо работает благодаря технологиям YOLOv8 и SAM. Первая отвечает за быстрое распознавание объектов, вторая — за точное разделение сегментов, благодаря чему алгоритм выделяет даже мельчайшие детали без потерь качества. Нейросеть поддерживает видео в форматах MP4, MOV и AVI, а конечный результат можно экспортировать в высоком разрешении.

Нейронка для удаления фона может понадобиться кому угодно. Она охватывает множество сфер: видеоблогинг, маркетинг, онлайн-обучение, создание рекламных материалов и даже профессиональный видеомонтаж.

Читайте также: Как сделать видео с поющим котом через нейросеть

Как удалить фон на фото

Обновленная модель BEN2 доступна на платформе Hugging Face, которая позволяет создателям нейросетей делиться своими творениями.

Для начала разберемся, как при помощи нейросети удалить фон из фотографии. Дело в том, что при открытии BEN2 нас встречает вкладка для работы с картинками.

В качестве примера я взял фотографию девушки с длинным волосами. Также я постарался выбрать вариант, на котором фон неоднотонный — так я намеренно усложнил нейронке работу. На таких снимках лучше всего видно, насколько хорошо работает нейросеть.

Как удалить фон на фото. Удалить фон можно за пару кликов, я не преувеличиваю. Фото.

Удалить фон можно за пару кликов, я не преувеличиваю

Чтобы удалить фон, достаточно загрузить изображение в интерфейс BEN2 и нажать на кнопку Submit. Обработка снимка заняло буквально 5 секунд, после чего я уже смог скачать картинку с прозрачным фоном в формате PNG.

Как удалить фон на фото. Результат удаления фона из фотографии. Фото.

Результат удаления фона из фотографии

На мой взгляд, нейронка справилась с задачей прекрасно. Да, на волосах видны засветы, но они связаны с освещением на оригинальной фотографии — все это можно исправить в графическом редакторе.

DeepSeek нужно установить всем: это самая умная нейросеть в 2025 году!

Как удалить фон на видео

Убрать фон из видео так же легко, как из фотографии. Достаточно загрузить файл и нажать кнопку Submit. Спустя недолгих раздумий, нейросеть выдает готовое видео с зеленым фоном — его можно использовать в видеоредакторах.

Как удалить фон на видео. Важно отметить, что зачастую нейросеть обрабатывает только 4 секунды видео из-за ограничений платформы. Фото.

Важно отметить, что зачастую нейросеть обрабатывает только 4 секунды видео из-за ограничений платформы

Как удалить фон в ТикТоке

Стоит отметить, что в TikTok и других популярных приложениях тоже можно удалить фон с фото и видео, но качество обычно уступает специализированным нейросетям. Самый простой способ — использовать эффект «Зеленый экран», который заменяет фон на любое изображение или видео.

Как удалить фон в ТикТоке. В ТикТоке много разных эффектов — он вполне может заменить собой видеоредактор. Фото.

В ТикТоке много разных эффектов — он вполне может заменить собой видеоредактор

Альтернативой также могут быть сторонние приложения, такие как CapCut, Unscreen и Kinemaster — они позволяют добиться более точного результата перед загрузкой видео в ТикТок.

Обязательно подпишитесь на наш Дзен-канал. Там вы найдете еще больше полезного контента!

Если вам нужно быстро удалить фон без лишних настроек, TikTok и его аналоги подойдут. Но если важна максимальная точность и качество, такие инструменты, как BEN2, дадут намного лучший результат.

Как сделать видео при помощи нейросети Qwen — проще некуда!

Как сделать видео при помощи нейросети Qwen — проще некуда! Пожалуй, на сегодняшний день Qwen AI создает самые реалистичные видео. Фото.

Пожалуй, на сегодняшний день Qwen AI создает самые реалистичные видео

Раньше, чтобы создать любое видео, была необходима хорошая камера и профессиональные программы для монтажа. Также от человека требовались умения и много времени — видео же не может появиться из ниоткуда? Но с появлением нейросетей все изменилось, и любой контент можно создать в пару кликов. Если сначала искусственный интеллект для генерации видео выдавал ужасные результаты, то в 2025 году сгенерированные ролики даже радуют. Самая лучшая нейросеть для создания видео — это Qwen, разработанная владельцами торговой площадки Aliexpress. Давайте выясним, что она умеет и как при помощи нее делать видео. Вы удивитесь тому, как все просто!

Нейросеть Qwen — это это такое

Перед тем, как создать видео через нейросеть, нужно понять, что такое Qwen. Нам же нужно ознакомиться с нашим главным инструментом?

Qwen 2.5 — это нейросеть, созданная китайской компанией Alibaba, которая может быть вам известна как владелец AliExpress. Первая версия Qwen вышла в 2023 году, а в 2025 она обновилась и стала одним из самых продвинутых чат-ботов.

Нейросеть Qwen — это это такое. Qwen AI разрабатывалась уже давно, но популярность обрела только в 2025 году. Источник изображения: dzen.ru. Фото.

Qwen AI разрабатывалась уже давно, но популярность обрела только в 2025 году. Источник изображения: dzen.ru

Возможности Qwen разные: нейросеть может писать текст, распознавать и генерировать изображения, писать программный код и даже делать видео. В общем, она умеет почти все, что доступно в нейросети ChatGPT от OpenAI. Однако она в разы лучше, потому что Qwen полностью бесплатна и доступна в России.

Большой популярностью в мире также пользуется DeepSeek, которая тоже разработана в Китае. Но эта нейронка уступает детищу Alibaba тем, что она не умеет генерировать картинки и видео. При этом она более популярна, потому что у нее есть несколько других крутых фишек, о которых мало кто знает.

Читайте также: DeepSeek нужно установить всем: это самая умная нейросеть в 2025 году!

Как создать видео через нейросеть

Генерировать видео при помощи нейросети до смешного просто. Интерфейс Qwen похож на внешний вид ChatGPT, DeepSeek и других чат-ботов. Чтобы работать с ним, достаточно написать запрос в строку для ввода и нажать Enter.

Но, в отличие от других нейросетей, у Qwen есть две дополнительные кнопки: Image Generation и Video Generation.

Как создать видео через нейросеть. Эти кнопки позволяют генерировать картинки и видео. Фото.

Эти кнопки позволяют генерировать картинки и видео

Как создать видео через нейросеть. Qwen AI позволяет выбрать формат картинок и видео. Фото.

Qwen AI позволяет выбрать формат картинок и видео

Чтобы создать картинку, нужно включить функцию Image Generation и ввести описание. Важно обратить внимание, что нейросеть может создавать контент разного формата: 1:1, 3:4, 16:9 и так далее. То же самое касается и видео — можно создать картинку или ролик как для широких экранов, так и для смартфонов.

Как создать видео через нейросеть. Изображение по запросу a young woman smiling while speaking onstage, white background with corporate logos blurred out, tech conference. Фото.

Изображение по запросу a young woman smiling while speaking onstage, white background with corporate logos blurred out, tech conference

Как создать видео через нейросеть. Изображение по запросу a yellow lemon falling into the water, splashing and creating a very lively scene, with a simple background, splash of water. Фото.

Изображение по запросу a yellow lemon falling into the water, splashing and creating a very lively scene, with a simple background, splash of water

Чтобы создать видео, нужно активировать кнопку Video Generation. После выбора формата нужно написать запрос (лучше всего на английском языке!) и ждать завершения процесса. Нейросетью Qwen пользуются миллионы людей, на сервера оказывается большая нагрузка, так что следует запастись терпением — видео может создаваться 30 минут и дольше.

В качестве примера, можете использовать этот промт для нейросети и посмотреть на результат:

A cat is batting a ball of yarn with its paws, and the ball is rolling on the ground.

Примеры видео, сгенерированные нейросетью Qwen, вы можете посмотреть в нашем Telegram-канале:

Иногда кнопка Video Generation не работает. Это значит, что разработчики временно отключили функцию из-за высокой нагрузки. Исправить это нельзя — остается только ждать, когда ее снова включат.

Нейросети для создания видео

Разумеется, существуют и другие нейронки для создания видео. Самой нашумевшей из них является Sora от OpenAI, но опа до сих пор недоступна.

Нейросети для создания видео. Возможности нейросети Sora впечатляют, но она находится в закрытом доступе. Источник изображения: The Verge. Фото.

Возможности нейросети Sora впечатляют, но она находится в закрытом доступе. Источник изображения: The Verge

Неплохой аналог Sora — это сервис Dream Machine от Luma AI. Она тоже может создать видео по тексту, причем в весьма хорошем качестве. Более того, ей можно «скормить» фотографию и попросить анимировать ее. Если взять нейросеть для создания картинок по словам и использовать вместе с Dream Machine, можно получать весьма интересные варианты видео.

Нейросети для создания видео. Dream Machine — хорошая замена Sora. Источник изображения: The Verge. Фото.

Dream Machine — хорошая замена Sora. Источник изображения: The Verge

Чтобы оставаться в курсе всего, что происходит в области искусственного интеллекта, подпишитесь на наш Дзен-канал!

Если по какой-то причине ИИ Qwen вам не понравился, прочитайте нашу статью «Как бесплатно генерировать видео через нейросеть: самая простая инструкция». Думаем, она будет для вас очень полезна!

Не работает DeepSeek: самые вероятные причины и их решение

Не работает DeepSeek: самые вероятные причины и их решение. Иногда DeepSeek дает сбой — с этим сталкивается почти каждый. Источник изображения: nbcnewyork.com. Фото.

Иногда DeepSeek дает сбой — с этим сталкивается почти каждый. Источник изображения: nbcnewyork.com

Вы уже наверняка слышали про китайскую нейросеть DeepSeek — в январе 2025 года о ней говорили со всех щелей. Опыт миллионов людей показал, что это бесплатная, доступная во всех странах и умная замена ChatGPT. Для искусственного интеллекта всегда найдется работа, поэтому многие используют его каждый день. Но даже самые продвинутые технологии иногда дают сбои. Если у вас внезапно перестал работать DeepSeek, не стоит паниковать — скорее всего, возникшую проблему можно решить.

Не приходит код DeepSeek

У некоторых людей проблемы с DeepSeek начинаются во время регистрации. В статье «DeepSeek нужно установить всем» мы отметили, что проще всего для входа в чат-бот использовать аккаунт Google. Но для некоторых людей этот вариант не подходит — не все люди зарегистрированы в Гугле.

Не приходит код DeepSeek. Также в DeepSeek можно войти по номеру телефона. Фото.

Также в DeepSeek можно войти по номеру телефона

Чтобы зарегистрироваться в ДипСик, некоторые пользователи используют электронную почту. И в этом случае на него должен прийти код для подтверждения аккаунта. И бывает такое, что письмо не удается найти.

Чтобы получить код DeepSeek, можно сделать следующее:

  • проверить соединение к Wi-Fi или проводному интернету;
  • проверить папку «Спам» — иногда письмо с кодом попадает туда;
  • подождать 10-15 минут — если сервера загружены, он может прийти с опозданием;
  • отправить код заново — обычно такая функция есть у всех сервисов;
  • проверить правильность адреса почты — может, вы пропустили какой-то символ.

В самом крайнем случае, решить проблему может техподдержка DeepSeek. Связаться с ней можно через сайт или мобильное приложение. Для этого в настройках нужно найти кнопку «Свяжитесь с нами» и выбрать пункт «Contact Support».

Не приходит код DeepSeek. Специалисты из DeepSeek могут помочь с решением многих проблем. Фото.

Специалисты из DeepSeek могут помочь с решением многих проблем

DeepSeek не открывается

В то время как одни люди не могут создать аккаунт, другие не могут войти — при открытии чат-бота или запуске приложения ничего не происходит. Причиной этому может все, что угодно: сбой в работе сервиса, блокировка провайдером, проблема с браузером и так далее.

DeepSeek не открывается. Пока ДипСик не работает, можно пользоваться его аналогами. Источник изображения: forbes.com. Фото.

Пока ДипСик не работает, можно пользоваться его аналогами. Источник изображения: forbes.com

Что делать, если не работает DeepSeek:

  • проверить интернет-соединение — возможно, у вас включено приложение для подмены IP-адреса;
  • очистить кэш, открыть сайт через другой браузер или устройство — может, что-то не так с компьютером или смартфоном;
  • обновить DeepSeek — не исключено, что разработчики выпустили новую версию нейросети;
  • узнать, работает ли DeepSeek у других — о сбоях нейросети всегда сообщают на странице status.deepseek.com.
DeepSeek не открывается. Красным цветом показано время, когда нейросеть не работала. Фото.

Красным цветом показано время, когда нейросеть не работала

Также стоит учесть, что в некоторых странах нейросеть недоступна. Блокировка DeepSeek в России пока маловероятна, а вот в Италии чат-бот запрещен.

Читайте также: Как сделать видео с поющим котом через нейросеть

DeepSeek выдает ошибку

Иногда при запуске нейросети появляется ошибка «The server is busy». Это значит, что на данный момент чат-ботом пользуется слишком много людей, и сервера не справляются с такой нагрузкой. Согласно статистике, в конце января ежедневно чат-ботом пользовалось более 5 миллионов человек со всего мира. О китайской нейросети каждый день узнает все больше людей, поэтому желающих воспользоваться им становится все больше.

DeepSeek выдает ошибку. Если DeepSeek выдает ошибку, можно попробовать отключить функцию «Search». Фото.

Если DeepSeek выдает ошибку, можно попробовать отключить функцию «Search»

У многих людей возникает ошибка при включении режима «Search», который позволяет искать свежую информацию в интернете. Она тоже связана с тем, что функцией пользуется слишком много людей. Единственное, что можно сделать в таком случае, — попробовать зайти чуть позже.

Не стоит забывать про сбои DeepSeek. Например, нейросеть перестала работать 31 января 2025 года. К счастью, технические неполадки длятся недолго, потому что разработчикам удается найти причины и исправить их. Но иногда для этого им приходится закрывать регистрацию новых пользователей, но это тоже временная мера.

А вы пользуетесь нейросетью DeepSeek? Впечатлены? Своим мнением делитесь в нашем Telegram-чате!

Если с нейросетью у вас нет никаких проблем или вам удалось их решить, читайте наш материал «5 классных идей, как использовать DeepSeek, чтобы облегчить себе жизнь». Пользоваться искусственным интеллектом станет еще интереснее!

5 классных идей как использовать DeepSeek чтобы облегчить себе жизнь

5 классных идей как использовать DeepSeek чтобы облегчить себе жизнь. Искусственный интеллект нужно использовать на 100% — сейчас расскажем, как. Источник изображения: The Verge. Фото.

Искусственный интеллект нужно использовать на 100% — сейчас расскажем, как. Источник изображения: The Verge

Ну что, вы уже успели установить DeepSeek и воспользоваться его возможностями? Если да, то вы наверняка уже поняли, что это не просто очередная нейросеть, а настоящий прорыв в области искусственного интеллекта. При помощи него можно получить подробный ответ на все сложные вопросы — если что, его можно попросить рассказать все простыми словами, и результат будет еще более понятным. Аналог ChatGPT может оказаться более полезным, если придумать ему новые задачи для облегчения жизни. За время пользования, у нас появилось несколько идей, и мы спешим ими поделиться с вами. Пользуйтесь!

Попросить нейросеть исправить ошибки

Наш опыт показал, что нейросеть может выполнять задачи корректора: вычитать текст, исправить орфографические и стилистические ошибки, и сделать его более красивым и понятным. Если ваша работа хоть как-то связана с текстом, искусственный интеллект DeepSeek может помочь сэкономить время, повысить продуктивность и в целом улучшить ваши тексты без силовых затрат.

Попросить нейросеть исправить ошибки. Благодаря нейросетям, искать в тексте ошибки вручную уже не нужно. Источник: dzen.ru. Фото.

Благодаря нейросетям, искать в тексте ошибки вручную уже не нужно. Источник: dzen.ru

Чтобы привести пример, я открыл нашу статью «Подслушивают ли умные колонки наши разговоры?» и намеренно сделал в его вступлении несколько грамматических, пунктуационных и стилистических ошибок. А потом попросил нейросеть исправить ошибки. Результат видите сами — ИИ отлично справился с задачей.

Попросить нейросеть исправить ошибки. Нейронка исправила все ошибки и выделила жирным шрифтом. Фото.

Нейронка исправила все ошибки и выделила жирным шрифтом

Обратите внимание, что запрос лучше начинать со слов «действуй как профессиональный корректор» — так нейросеть лучше поймет, какую роль ей нужно играть. Она не только исправит ошибки и улучшит текст, но и объяснит, что и где исправила.

Попросить нейросеть написать рецепт

Нейронка DeepSeek также может быть полезным на кухне. Я нашел ему два варанта использования. Во-первых, можно перечислить ему список продуктов, которые есть в холодильнике, и узнать, что из всего этого можно приготовить.

Попросить нейросеть написать рецепт. Я перечислил список имеющихся продуктов, и нейросеть придумала, что из этого приготовить. Фото.

Я перечислил список имеющихся продуктов, и нейросеть придумала, что из этого приготовить

Во-вторых, я написал ему, что я хочу приготовить сегодня вечером и попросил составить список продуктов, которые нужно купить в магазине. И да, нейросеть написала подробный рецепт салата цезарь.

Попросить нейросеть написать рецепт. Нейросеть пошагово объяснила, как сделать салат цезарь. Фото.

Нейросеть пошагово объяснила, как сделать салат цезарь

Попросить нейросеть дать совет

Каждый день мы сталкиваемся с ситуациями, в которых нужно принять сложное решение. Например, я не могу решить, какую электрогитару купить, если я в них не разбираюсь и являюсь новичком. Почему бы не попросить нейросеть взвесить все плюсы и минусы, и помочь определиться с выбором? Я попросил его действовать как беспристрастный советчик, и он мне все разложил по полочкам.

Попросить нейросеть дать совет. Если вы не можете сделать правильный выбор, позвольте сделать это нейросети. Фото.

Если вы не можете сделать правильный выбор, позвольте сделать это нейросети

Попросить нейросеть помочь в обучении

Искусственный интеллект может действовать как учитель или инструктор — кому как нравится. Вы уже наверняка слышали истории, как кто-то использует ChatGPT как учителя по английскому языку. Так вот, нейросеть ДипСик тоже так может, и не стоит зацикливаться только на школьных предметах.

Попросить нейросеть помочь в обучении. Нейросеть даже может помочь с починкой крана. Фото.

Нейросеть даже может помочь с починкой крана

Например, я совсем не разбираюсь в сантехнике. У меня накал капать кран на кухне, а знакомый сантехник не берет трубку — видимо, снова ушел в запой. Я могут объяснить нейросети ситуацию и узнать, как пошагово решить проблему.

Читайте также: Как найти любовь с помощью ChatGPT и искусственного интеллекта?

Поиск с нейросетью — лучший аналог Google

В DeepSeek есть прекрасная кнопка «Search», при помощи которой можно искать информацию в интернете. Это гораздо быстрее и проще, чем пользоваться Гуглом и заходить на десятки сайтов в поисках нужного. Одним запросом можно получить всю самую важную информацию, и это здорово экономит время и облегчает жизнь.

Поиск с нейросетью — лучший аналог Google. Китайская нейронка не просто дает информацию, но и показывает, откуда она ее взяла. Фото.

Китайская нейронка не просто дает информацию, но и показывает, откуда она ее взяла

Важно отметить, что у некоторых людей DeepSeek не работает как надо. Чаще всего при включении функции «Search» у них выходит ошибка «Sorry, DeepSeek’s search service is busy. Please disable search or try again in a few minutes». Это значит, что сервера чат-бота перегружены. Исправить эту проблему самостоятельно невозможно — придется ждать, когда сервис сможет обрабатывать запросы.

А как вы используете нейросети? Своими идеями делитесь в нашем Telegram-чате!

Как вы уже поняли, искусственный интеллект может стать незаменимым помощником на каждый день. Если пропустили, ознакомьтесь с нашим материалом «DeepSeek нужно установить всем: это самая умная нейросеть в 2025 году». Там я рассказал все, что нужно знать про китайскую нейросеть.

Как сделать видео с поющим котом через нейросеть

Как сделать видео с поющим котом через нейросеть. Видео с поющими животными создаются при помощи приложения Dream Face. Источник изображения: dzen.ru. Фото.

Видео с поющими животными создаются при помощи приложения Dream Face. Источник изображения: dzen.ru

Признайтесь, вы же тоже проводите время, смотря короткие видео в ТикТоке и других сервисах? Наверняка да, и вы точно видели там сгенерированные нейросетью видео с поющими котами и другими домашними животными. И вы, наверное, задумывались: какая нейросеть для создания видео для этого используется? Ответ прост: для генерации этого вирусного контента тысячи блогеров используют приложение Dream Face. Оно бесплатное, понятное в использовании и доступное на всех устройствах. В вашей галерее наверняка уже есть сотни фотографий домашнего любимца, поэтому давайте сразу разберемся, как их анимировать и наложить песню.

Как сделать поющего кота

Нейросеть Dream Face доступна везде, как на смартфонах, так и компьютере через браузер. Так как фотографии кошек и собак мы обычно храним на телефоне, проще всего скачать Dream Face на смартфон — приложение доступно на Android и iOS.

После скачивания и запуска приложения, сервис обычно в трех шагах объясняет, как им пользоваться. Также инструкция есть в блоге компании, но все они на английском. Так что наша инструкция лучше и понятнее.

Как сделать поющего кота. К сожалению, перевод приложения DreamFace сделан так себе. Фото.

К сожалению, перевод приложения DreamFace сделан так себе

Чтобы создать видео с поющей кошкой, в главном окне приложения нужно выбрать пункт «Pet». В следующем окне необходимо нажать кнопку «Попробуйте сейчас», после чего и начинается творчество.

Как сделать поющего кота. Часть интерфейса Dream Face вообще не переведена на русский язык. Фото.

Часть интерфейса Dream Face вообще не переведена на русский язык

В качестве главного героя видео мы выбрали фотографию с довольным котом из мемов. Вы, разумеется, должны выбрать своего любимца. Чтобы наложить музыку, достаточно нажать «Добавить скрипт для продолжения» и выбрать пункт «Поиск музыки».

Как сделать поющего кота. ВАЖНО: лучше выбирать фотографии, где у питомца закрыт рот — если он открыт, видео получится некрасивым. Фото.

ВАЖНО: лучше выбирать фотографии, где у питомца закрыт рот — если он открыт, видео получится некрасивым

В поисковую строку можно попробовать вписать название любимой песни, но лучше выбирать из предложенных вариантов — многих треков в библиотеке сервиса нет. В качестве примера мы выбрали хит «Gimme! Gimme! Gimme!» от ABBA, но на выбор дается много вариантов. Любители «потяжелее» могут даже заставить своего питомца запеть Black Sabbath.

Как сделать поющего кота. Музыка в приложении отсортирована по жанрам. Фото.

Музыка в приложении отсортирована по жанрам

После выбора песни нужно наложить на мордочку питомца маску. Просто покрутите и масштабируйте фотографию так, чтобы глаза и рот как можно точнее совпали с линиями. После подтверждения сервис начинает создание видео. На это может уйти около 5 минут, так что приложение можно свернуть — если уведомления включены, сервис объявит о готовности видео.

Как сделать поющего кота. Если прогресс остановился, приложение не зависло — просто видео долго создается. Фото.

Если прогресс остановился, приложение не зависло — просто видео долго создается

Видео готово! Но важно отметить, что в сутки нейросеть Дрим Фейс дает генерировать только 10 видео. И на всех результатах виден водяной знак. Чтобы убрать ограничения, нужно купить подписку, но с ее оформлением в России могут возникнуть проблемы.

DEEPSEEK НУЖНО УСТАНОВИТЬ ВСЕМ: это самая умная нейросеть в 2025 году!

Нейросети для создания видео

Приложение Дримфейс может не только создать видео с поющей собакой, кошкой или другим животным. Покопавшись в функциях можно узнать, что фотографии людей и животных можно заставить озвучивать текст. Возможно, вы видели странные видео, в которых знаменитости поздравляют с днем рождения разных людей — так вот, они тоже созданы при помощи Dream Face.

Но, опять же, для большинства функций приложения требуется подписка. И оформлять ее стоит разве что тем, кто сам зарабатывает на создании контента. Совершать такую покупку для забавы — очень сомнительная затея, но каждый решает сам.

В 2025 году лучшая нейросеть для генерации видео — это все еще Dream Machine от Luma AI. О ней мы подробно рассказали в материале «Как бесплатно генерировать видео через нейросеть». С тех пор у сервиса обновился интерфейс, но процесс создания видео остался прежним.

Нейросети для создания видео. Интерфейс Dream Machine обновился, но он все еще интуитивно понятный. Фото.

Интерфейс Dream Machine обновился, но он все еще интуитивно понятный

Другие сервисы для создания видео тоже есть, но большинство из них либо платные, либо вообще доступны по приглашениям. В качестве примера можно привести нейросеть Runway, также такой функцией обладает искусственный интеллект Hailuo AI. А нашумевшая Sora от Open AI до сих пор остается недоступной для большинства, хотя результаты ее работы — это просто нечто.

Обязательно подпишитесь на наш Дзен-канал. Мы будем больше рассказывать про нейросети!

Может, вы знаете другие интересные нейросети? Если что, делитесь в нашем Telegram-чате. Ну и не забудьте отправить туда свои видео, созданные при помощи Dream Face!

DeepSeek нужно установить всем: это самая умная нейросеть в 2025 году!

DeepSeek нужно установить всем: это самая умная нейросеть в 2025 году! Нейросеть DeepSeek доступен в России бесплатно — им может пользоваться каждый. Источник изображения: 9to5google.com. Фото.

Нейросеть DeepSeek доступен в России бесплатно — им может пользоваться каждый. Источник изображения: 9to5google.com

В начале 2025 года в области искусственного интеллекта произошло сенсационное событие. Откуда ни возьмись в топах приложений оказалась нейросеть DeepSeek, которая работает лучше, чем всем известный ChatGPT от OpenAI. При этом она полностью доступна в России, не требует купить подписку и была разработана за относительно небольшие деньги. Чат-бот был выпущен одноименным китайским стартапом, который совсем недавно был никому неизвестен, и всего за несколько недель обрел мировую славу. Чат-бот DeepSeek оказался настолько крутым, что обрушил акции многих технологических компаний. Чем же она так хороша, и почему ею должен воспользоваться каждый?

Как появилась нейросеть DeepSeek

Нейросеть ДипСик появилась весьма неожиданно. До 2025 года все мы использовали возможности ChatGPT, а в качестве нейросети для создания картинок использовали Microsoft Bing и его аналоги.

Китайский стартап DeepSeek в 2023 году основал Лян Вэньфэн (Liang Wenfeng) — это имя следует запомнить, потому что из-за успеха нейросети оно наверняка будет часто мелькать в новостях в будущем.

Как появилась нейросеть DeepSeek. Лян Вэньфэн (справа) — основатель DeepSeek. Источник фотографии: channelnewsasia.com. Фото.

Лян Вэньфэн (справа) — основатель DeepSeek. Источник фотографии: channelnewsasia.com

Первые шаги компании были осторожными, но уже в ноябре 2023 года о ней заговорили, когда была выпущена DeepSeek Coder — нейросеть для программирования. Эта разработка быстро привлекла внимание профессионалов благодаря своей бесплатности и точной работе.

Как появилась нейросеть DeepSeek. Интерфейс DeepSeek почти такой же, как у ChatGPT. Фото.

Интерфейс DeepSeek почти такой же, как у ChatGPT

Следующим прорывом стала нейросеть DeepSeek-V2, представленная в мае 2024 года. Она не только выделялась высокой производительностью, но и заставила китайские компании вроде ByteDance и Alibaba снизить цены на свои нейронки.

Как появилась нейросеть DeepSeek. Нейросеть DeepSeek заставила многие компании пересмотреть свои бизнес-стратегии. Источник изображения: finance.yahoo.com. Фото.

Нейросеть DeepSeek заставила многие компании пересмотреть свои бизнес-стратегии. Источник изображения: finance.yahoo.com

Еще громче о DeepSeek люди заговорили в ноябре 2024 года, когда компания представила свою большую языковую модель следующего поколения — нейросеть DeepSeek-V3. Пользовались ею немногие, но отзывы намекали на то, что в будущем она сможет стать известна как лучшая альтернатива ChatGPT.

Наконец, 20 января 2025 года китайский стартап представил еще одну модель — DeepSeek R1, с открытым исходным кодом. Она моментально завоевала популярность благодаря своим впечатляющим возможностям.

Чат DeepSeek — самая лучшая нейросеть

Модель DeepSeek R1 находится на несколько шагов впереди от своих конкурентов. В первую очередь преимущество DeepSeek над ChatGPT заключается в том, что доступен бесплатно в России. Чат-бот DeepSeek можно запустить как на компьютере, так и на смартфонах. Также интересно, что он способен выходить в Интернет — если научиться им пользоваться, поисковики Google и Яндекс будут не нужны.

Чат DeepSeek — самая лучшая нейросеть. DeepSeek можно использовать вместо поисковиков. Источник изображения: bloomberg.com. Фото.

DeepSeek можно использовать вместо поисковиков. Источник изображения: bloomberg.com

Еще одно отличие DeepSeek от ChatGPT и аналогов заключается в том, что он показывает цепочку своих размышлений. Он не просто отвечает на вопросы и решает задачи, но и объясняет, как был получен тот или ной ответ. Благодаря этому, модель работает прозрачно, и пользователи могут быть уверены в точности результатов. Кроме того, DeepSeek — это *нейросеть с открытым исходным кодом*, благодаря чему опытные программисты могут настраивать его под свои нужды. А вот OpenAI и другие разработчики ИИ держат свои наработки под строгим контролем.

Чат DeepSeek — самая лучшая нейросеть. Вот как думает нейросеть DeepSeek, когда складывает 2+2. Фото.

Вот как думает нейросеть DeepSeek, когда складывает 2+2

Еще интересно, что разработка DeepSeek обошлась стартапу всего в 5,5 миллионов долларов. В то же время на обучение ChatGPT у компании OpenAI ушло 78 миллионов долларов.

Чем DeepSeek AI лучше остальных

Китайские умельцы показали, что нейросети можно обучать быстрее и дешевле, а потом предоставлять их людям бесплатно и безо всяких подписок и региональных ограничений. Поэтому удивляться тому, что это самая популярная нейросеть, не стоит — с таким подходом успех стартапу DeepSeek был обеспечен.

Приложение DeepSeek всего за несколько дней возглавило чарты магазинов приложений в США, Китае, Великобритании и других странах, а число загрузок превысило 1,6 миллиона.

Чем DeepSeek AI лучше остальных. DeepSeek находится в топе бесплатных приложений Apple Store. Источник изображения: ccn.com. Фото.

DeepSeek находится в топе бесплатных приложений Apple Store. Источник изображения: ccn.com

Реакция на релиз DeepSeek R1 была настолько сильной, что мировые фондовые рынки сильно пошатнулись. По данным Bloomberg, появление модели поставило под сомнение технологическое лидерство США, а Кремниевая долина всерьез начала говорить о новой эпохе в развитии искусственного интеллекта.

Читайте также: Уничтожит ли нас искусственный интеллект и почему некоторые ученые считают, что да?

Возможности DeepSeek AI

Китайский DeepSeek — это мощная нейросеть для решения задач самого разного рода. Все пользователи отмечают, что он выдает ответы быстрее, чем ChatGPT.

Вот что умеет DeepSeek:

  • создание текстов любого объема и жанра — от статей до художественных рассказов;
  • поиск информации в интернете;
  • анализ изображений: модель способна расшифровывать текст на картинках (но не объяснять их!);
  • написание программного кода на языках Python, JavaScript, C++ и так далее;
  • режим DeepThink, в котором нейросеть показывает цепочку своих размышлений.

К сожалению, несмотря на богатый функционал, модель пока не умеет изучать информацию по ссылкам. Информацию извне можно предоставить только загрузив документ или вставив скопированный текст.

Нейросети для создания музыки: бесплатные сервисы доступные каждому

Как пользоваться DeepSeek

Нейросеть DeepSeek доступна как в веб-версии, так и на смартфонах. В первом случае достаточно зайти на сайт chat.deepseek.com, а во втором — скачать DeepSeek для Android или iOS.

Как пользоваться DeepSeek. Бесплатная нейросеть доступна на любом устройстве. Источник изображения: france24.com. Фото.

Бесплатная нейросеть доступна на любом устройстве. Источник изображения: france24.com

Вот пошаговая инструкция по тому, как зарегистрироваться в DeepSeek:

  • зайти на на официальный сайт DeepSeek, нажать на кнопку Start Now;
  • пройти регистрацию (проще всего зайти через аккаунт Google);
  • Открыть окно с чат-ботом.
Как пользоваться DeepSeek. Официальный сайт ДипСик. Фото.

Официальный сайт ДипСик

Как пользоваться DeepSeek. Войти в DeepSeek проще через Google. Фото.

Войти в DeepSeek проще через Google

Пользоваться DeepSeek можно как и ChatGPT. Но следует обратить внимание, что ниже поля ввода есть две кнопки: DeepThink и Search. Если активировать первую, нейросеть будет показывать, как она создавала ответ. Вторая кнопка позволяет нейронке искать информацию в Интернете.

Как пользоваться DeepSeek. Кнопки DeepThink и Search — главные фишки нейросети DeepSeek. Фото.

Кнопки DeepThink и Search — главные фишки нейросети DeepSeek

Также для анализа можно прикрепить до 50 файлов разного формата размером до 100 МБ каждый. Так модель DeepSeek R1 показывает себя как хорошая нейросеть для расшифровки текстов. Также эту функцию можно использовать для анализа книг и других документов.

А ы уже попробовали DeepSeek? Ну и как вам? Своим мнением делитесь в нашем Telegram-чате.

В конечном итоге получается, что за пару недель DeepSeek уничтожила другие нейросети. Не исключено, что это время войдет в историю, потому что американские и европейские модели оказались не настолько хорошими, чтобы просить за них деньги за подписку. Что будет дальше — покажет время, а мы будем рассказывать обо всем самом интересном. Так что не поленитесь подписаться на наш Telegram-канал с обновлениями.

Ученые научились создавать точные ИИ-копии людей за 2 часа

Ученые научились создавать точные ИИ-копии людей за 2 часа. Ученые создали цифровых «клонов» людей. Фото.

Ученые создали цифровых «клонов» людей

Ученые уже не первый год говорят о возможности создания цифровой копии личности людей в виде искусственного интеллекта. То есть ИИ может обладать той же манерой общения, взглядами на жизнь, чувством юмора и прочими чертами, что и человек, которого он копирует. Изначально эта идея казалась немного фантастической, но теперь, благодаря исследованиям специалистов из Google и Стэнфордского университета, действительно стало возможным создать ИИ-копию любого человека, причем потратив на это всего два часа. Такой подход позволяет искусственному интеллекту воспроизводить личность с точностью до 85%.

Как работают ИИ-копии людей?

В настоящее время ИИ интеллект применяется в самых разных сферах деятельности человека. Например, он создает новые лекарственные препараты, помогает археологам в расшифровке древних текстов и даже помогает полицейским следить за порядком. Однако по мнению специалистов, сферы применения ИИ могут быть расширены еще больше. И создание цифровых копий людей является очередным шагом на пути к этому.

Исследование, опубликованное 15 ноября, показало, что достаточно провести двухчасовое интервью с человеком, чтобы создать его цифровую копию. Эти данные используются для обучения генеративной модели ИИ, способной воспроизводить поведение и черты характера своего реального прототипа.

Чтобы оценить точность полученных ИИ-моделей, ученые провели серию тестов. Участники исследования заполняли анкеты, проходили личностные опросники, участвовали в социальных и логических играх. Через две недели эти же тесты прошли их ИИ-аналоги. Результаты показали, что искусственный интеллект воспроизводит ответы с точностью в 85%.

Как работают ИИ-копии людей? Цифровые копии схожи с людьми на 85%. Фото.

Цифровые копии схожи с людьми на 85%

Создание цифровых личностей

К своему исследованию команда привлекла более 1000 человек. Вопросы, которые им задавали для создания цифровой копии, касались жизненных ценностей, личного опыта и взглядов на социальные проблемы. Например, авторы использовали общий социальный опрос (General Social Survey) для изучения социальных установок, личностный тест Big Five для определения основных черт характера.

Кроме того, участникам эксперимента давали играть в логические игры, таких как Dictator Game и Trust Game, которые оценивают поведение в ситуациях, связанных с распределением ресурсов. Такой подход позволил ИИ учитывать тонкости, которые невозможно выявить с помощью стандартных опросников.

Применение ИИ-реплик в исследованиях

Зачем вообще создавать цифровые копии людей? Смысл не только в том, чтобы люди могли использовать, например, своих цифровых ассистентов. ИИ-копии открывают новые горизонты для изучения человеческого поведения. Такие модели могут применяться в различных областях. Например, ИИ позволяет протестировать, как люди отреагируют на новые законы, общественные кампании или изменения в социальной политике.

Применение ИИ-реплик в исследованиях. Цифровые копии людей ученые смогут использовать в будущих исследованиях. Фото.

Цифровые копии людей ученые смогут использовать в будущих исследованиях

Также компании могут предсказать реакцию аудитории на запуск новых продуктов или услуг. По мнению специалистов, ИИ-копии помогут изучить поведение людей в сложных условиях, например, во время природных катаклизмов или экономических кризисов, без реальных рисков.

По словам Джуна Сунга Пака, ведущего автора исследования, в будущем возможно создание множества цифровых “клонов” одного человека, способных принимать те же решения, что и оригинал. Все это предоставит исследователям уникальный инструмент для моделирования человеческих реакций в различных ситуациях.

Почему ИИ не может полностью копировать людей

Несмотря на успехи, технология воспроизведения личности с помощью ИИ имеет свои недостатки. Наиболее сложной задачей для ИИ остается моделирование поведения в социальных взаимодействиях, таких как экономические игры. Здесь требуется учитывать множество факторов, включая социальную динамику и контекст, что пока трудно для искусственного интеллекта.

Почему ИИ не может полностью копировать людей. Технология воспроизведения личности с помощью ИИ все еще не идеальны. Фото.

Технология воспроизведения личности с помощью ИИ все еще не идеальны

Кроме того, технология создания ИИ-копий вызывает опасения по поводу возможного злоупотребления. В мире уже существуют случаи, когда искусственный интеллект и технологии дипфейков использовались для обмана, манипуляций и кражи личных данных.

Созданные цифровые личности могут быть использованы для введения людей в заблуждение или подмены их решений. Ученые подчеркивают необходимость строгого контроля над разработкой и использованием подобных технологий.

Обязательно посетите наши каналы Дзен и Telegram, здесь вас ждут самые интересные новости из мира науки и последние открытия!

В целом же, по мнению специалистов, создание ИИ-копий личности — это не просто шаг вперед в развитии технологий, но и возможность заглянуть в будущее человечества. Однако, чтобы эти технологии приносили пользу, а не вред, необходимо установить четкие рамки их применения. Только так мы сможем превратить искусственный интеллект в инструмент, который помогает человечеству, а не создает новые риски.

Главные научные открытия 2024 года по версии Hi-News.ru

Главные научные открытия 2024 года по версии Hi-News.ru. 2024 год оказался богат на научные открытия. Изображения: substackcdn.com. Фото.

2024 год оказался богат на научные открытия. Изображения: substackcdn.com

Прощание с уходящим годом – дело серьезное. Особенно, когда речь идет о важнейших научных открытиях. В 2024 году химики (не без помощи искусственного интеллекта) разобрались в том, как сворачиваются белки, экономисты наконец объяснили, почему одни страны богатые, а другие нет, а астрономы, в поисках жизни за пределами Земли, обнаружили целое «море» экзопланет. Последние 12 месяцев также ознаменованы прорывом в области возобновляемой энергетики и созданием первых прототипов квантовых компьютеров. В этой статье поговорим о самых интригующих (по мнению редакции Hi-News.ru) открытиях года Деревянного Дракона. С наступающим, друзья!

Квантовые компьютеры

Одной из наиболее обсуждаемых тем 2024 года стало объявление сразу нескольких исследовательских групп о создании прототипов квантовых компьютеров, способных решать прикладные задачи, недоступные уже привычным суперкомпьютерам. Ранее столь сложные квантовые системы функционировали в основном в лабораторных условиях, а их применение ограничивалось теоретическими опытами.

Напомним, в отличие от обычных компьютеров, выполняющих вычисления по одному за раз, квантовые справляются со множеством задач одновременно. Подробнее о том, что именно представляют собой эти системы Hi-News.ru рассказывал ранее.

Уходящий год, однако, изменил парадигму: такие компании как Google, IBM и несколько стартапов (PsiQuantum, IonQ) представили собственные проекты, в которых (благодаря чрезвычайно улучшенной устойчивости кубитов (1 бит = 1 квантовая частица)) компьютеры смогли выполнять сложные алгоритмы, в том числе связанные с криптографией и химическими симуляциями.

Квантовые компьютеры. Будущее за квантовыми компьютерами. Изображение: olytechnique-insights.com. Фото.

Будущее за квантовыми компьютерами. Изображение: olytechnique-insights.com

В частности, важным достижением стала публикация в журнале Nature, текст которой посвящен «квантовому превосходству» в реальных задачах: ученые детально описали, как новый квантовый чип с более чем 1000 кубитов за считанные часы сумел провести сложные расчеты по моделированию новых материалов, в то время как классическим суперкомпьютерам на аналогичные задачи потребовались бы недели. Одно только это открытие прокладывает дорогу к более быстрой разработке лекарств и новым методам шифрования.

Свою лепту в развитие квантовых компьютеров внес глава Tesla и SpaceX Илон Маск, запустив Colossus – самую мощную в мире систему обучения искусственного интеллекта.

Генная инженерия и CRISPR

Технологии редактирования генома, в первую очередь система CRISPR-Cas9, продолжают стремительно развиваться: если до сих пор CRISPR преимущественно ассоциировалась с «точечным» редактированием, позволяющим устранять генетические дефекты, то в 2024 году международная исследовательская группа представила новую версию этого инструмента (так называемая CRISPR 2.0), отличающаяся большей точностью и меньшим количеством побочных мутаций.

В частности, система CRISPR 2.0 позволила эффективно корректировать гены, связанные с наследственными формами рака груди и легких. Новая технология также оказалась безопаснее и может проникать в клетки, сводя к минимуму возникновение нежелательных изменений (вне целевого участка генома). Открытие означает, что в ближайшие годы генетическая терапия станет более доступной и получит широкое применение в клинической практике.

Генная инженерия и CRISPR. Редактор генома CRISPR находит все большее применение в медицине для лечения пациентов. Изображение: media.lesechos.com. Фото.

Редактор генома CRISPR находит все большее применение в медицине для лечения пациентов. Изображение: media.lesechos.com

Кроме того, в нескольких лабораториях кипит работа, направленная на борьбу с мутациями, вызывающими такие нейродегенеративные заболевания, как болезнь Альцгеймера и Паркинсона. Ранее опубликованные исследований показали, что комбинация CRISPR 2.0 с нанокапсулами (для точечной доставки) может существенно замедлить развитие патологических процессов в мозге.

Читайте также: Редактор генома CRISPR впервые помог уничтожить спящие формы вируса герпеса

Искусственный интеллект 2.0

2024 год мы запомним как эпоху «сумасшествия» нейросетей и появление второго поколения больших языковых моделей (Large Language Models, LLMs). Судите сами – результаты небольшой научной работы показали, что ChatGPT решает медицинские задачи лучше врачей, а несколько компаний, работающих с ИИ, выпустили множество впечатляющих видеогенераторов, в том числе Veo 2 от Google DeepMind и Sora от OpenAI.

Google также анонсировала собственного ИИ-агента, прогнозы погоды которого превзошли прогнозы Европейского центра Weather Forecasts (мирового лидера в области), а OpenAI выпустила новую “логическую” систему, подорвавшую отраслевые стандарты в области программирования и решения сложных математических задач.

Искусственный интеллект 2.0. Нейросети, помимо прочего – самые настоящие мастера обмана. Изображение: engr.ncsu.edu. Фото.

Нейросети, помимо прочего – самые настоящие мастера обмана. Изображение: engr.ncsu.edu

Не пропустите: Обман, манипуляция и страх смерти: на что способны нейросети?

Модели с системой «самообучения», представленные исследователями из OpenAI, DeepMind и Baidu, оказались способны адаптироваться к новым данным в реальном времени и совершенствовать собственные алгоритмы без ручной настройки.

Так, обновленная версия модели GPT показала более глубокое понимание языка и контекста, а другие модели второго поколения научились выполнять сложные когнитивные задачи, включая написание программного кода, анализ медицинских текстов и подготовку научных обзоров практически без участия человека. Такое положение вещей открывает новые возможности для автоматизации труда во многих отраслях — от финансовой аналитики до образования.

Искусственный интеллект 2.0. Ученым придется разработать инструменты, которые позволят «заглянуть» во внутренние процессы ИИ. Изображение: cdn.prod.website-files.com. Фото.

Ученым придется разработать инструменты, которые позволят «заглянуть» во внутренние процессы ИИ. Изображение: cdn.prod.website-files.com

Столь впечатляющие успехи, однако, поднимают ряд этических вопросов и необходимость дальнейшего регулирования области: эксперты уже обратились к мировому сообществу с призывом разработать международные стандарты использования алгоритмов, чтобы минимизировать риски, связанные с искажением информации, утечками данных и распространением фейков.

А вы знали, что нейросети научились врать и делают это намеренно? Подробности здесь!

Возобновляемая энергетика

Экологический кризис – серьезная проблема для человечества, но даже в этой «тьме» нашелся лучик света – термоядерный синтез. Этот практически неиссякаемый источник энергии, основанный на слиянии ядер водорода в гелий, стал ближе в 2024 году. Результаты исследования, представленного в журнале Nature показали, что новые сверхпроводящие магниты и улучшенные системы охлаждения плазмы привели к достижению рекордных параметров удержания энергии.

Хотя до полноценной промышленной эксплуатации еще несколько лет, ученые отметили, что прогресс идет быстрее, чем ожидалось, и человечество уже находимся на пороге эры, когда термоядерная энергия будет играть значительную роль в мировой энергетике.

Возобновляемая энергетика. Совсем недавно использование термоядерного синтеза в энергетике в земных условиях считалось невозможным. Изображение: knowablemagazine.org. Фото.

Совсем недавно использование термоядерного синтеза в энергетике в земных условиях считалось невозможным. Изображение: knowablemagazine.org

Им вторят другие исследователи и такие стартапы, как Commonwealth Fusion Systems и General Fusion. Последние объявили о своих успехах в создании компактных термоядерных установок для локального энергоснабжения. Данная технология (если окажется успешной) сможет вывести отрасль возобновляемой энергетики на новый уровень и кардинально изменить баланс сил на глобальном рынке электроэнергии.

Больше по теме: Термоядерный синтез вскоре может быть использован в энергетике

Космологическая постоянная

Несмотря на кризис космологии, в 2024 году ученые узнали, что космологическая постоянная на самом деле переменная – данные Dark Energy Spectroscopic Instrument показали, что за время существования Вселенной она постепенно меняется. Открытие может привести к исключению давней гипотезы о том, что источником «постоянной» может быть вакуум, а также отказу от темной энергии.

Напомним, современная космология «лежит» на плечах уравнений теории относительности Эйнштейна. Создавая их физик заметил, что условия, при которых Вселенная статична, не имеют решения, поэтому ввел в уравнение так называемую постоянную, обеспечивающую статичность. Однако после открытия расширения Вселенной Эйнштейн назвал постоянную ошибкой.

Космологическая постоянная. Космологическая постоянная постепенно меняется. Изображение: c8.alamy.com. Фото.

Космологическая постоянная постепенно меняется. Изображение: c8.alamy.com

Ситуация изменилась в 1998 году, когда наблюдения за сверхновыми звездами показали, что Вселенная нестатична и расширяется с ускорением (а Эйнштейн в конечном итоге был прав). Теперь, в виду изменчивости постоянной, ученым придется найти другое объяснение ускоренному расширению Вселенной (темной энергии): если причина не в вакууме, то искать ее нужно где-то еще. Отметим, это не первый раз, когда исследователи призывают отказаться от темной энергии (хотя и по другим причинам).

Хотите всегда быть в курсе новостей из мира науки и высоких технологий? Подписывайтесь на наш канал в Telegram – так вы точно не пропустите ничего интересного!

Экзопланеты и жизнь за пределами Земли

Еще одной популярной темой уходящего года стала находка новых экзопланет, особенно таких, как суперземли – миры, обращающиеся вокруг солнцеподобных звезд. Например, данные наблюдений, полученные с помощью космического телескопа Джеймс Уэбб и наземных обсерваторий, указали на возможное наличие на некоторых суперземлях атмосферы с кислородом.

Экзопланеты и жизнь за пределами Земли. Сравнение Земли и суперземли Gliese 12 b. Изображение: wixmp.com. Фото.

Сравнение Земли и суперземли Gliese 12 b. Изображение: wixmp.com

Множество исследований были направлены на поиски внеземной жизни в Солнечной системе. В частности, в работе, представленной в журнале Communications Earth & Environment ученые предложили рассмотреть ранее неизвестную перспективу о наличии микроорганизмов на Красной планете. Дело оказалось в пыльных слоях марсианского льда, которые долго время считали исключительно геологическим феноменом, но теперь рассматривают как потенциально обитаемые регионы.

Вам будет интересно: Астрономы открыли новую планету, похожую на сахарную вату

Примечательным событием также стал запуск миссии NASA Europa Clipper в октябре 2024-го года. Аппарат, оснащенный инновационными инструментами для планетных исследований, прибудет к месту назначения в 2030 году и займется поиском признаков жизни на луне Юпитера Европе.

Экзопланеты и жизнь за пределами Земли. Через пять лет мы наконец узнаем, обитают ли в подледных океанах Европы живые организмы Изображение: cloudfront.net. Фото.

Через пять лет мы наконец узнаем, обитают ли в подледных океанах Европы живые организмы Изображение: cloudfront.net

Еще 2024 вошел в историю, как год начала работы первых секций Чрезвычайно большого телескопа (Extremely Large Telescope (ELT)) в Чили. Этот гигантский астрономический инструмент с зеркалом диаметром почти 40 метров позволит наблюдать планетные системы и галактики с небывалым уровнем разрешения. С его помощью ученые будут искать темную материю, изучать галактики и звезды, сформированные в ранней Вселенной.

Кстати, еще в конце 2024 года китайские астрономы раскрыли секрет обратной стороны Луны

Итоги и перспективы

Как видите, прорывы в квантовых вычислениях приведут к росту вычислительных мощностей и ускорят исследования в разных областях науки, включая фармакологию. Достижения в генной инженерии (CRISPR 2.0), в свою очередь, открывают путь к точечному лечению тяжелых заболеваний и эволюционному скачку в персонализированной медицине.

Искусственный интеллект, несмотря на риски, продолжит совершенствоваться, создавая возможности для автоматизации научных открытий и анализа данных, а астрономы и космологи все больше узнают о космосе и нашем месте во Вселенной. В то же самое время экологические проблемы требуют объединения усилий ученых, политиков, глав корпораций и простых граждан, а надежды на чистую и устойчивую энергетику связаны преимущественно с термоядерным синтезом.

Итоги и перспективы. Наука – самый надежный метод познания окружающего мира. Изображение: theatlantic.com. Фото.

Наука – самый надежный метод познания окружающего мира. Изображение: theatlantic.com

Это интересно: Нобелевская премия 2024: от нейросетей до истории и экономики

Словом, итоги 2024 года дают основания для сдержанного оптимизма: научно-технический прогресс не только открывает новые горизонты для человечества, но и ставит перед ним важнейшие этические и социальные вопросы. Впереди – новые открытия и испытания, но лишь время покажет, как именно мы воспользуемся этими достижениями.

Обман, манипуляция и страх смерти: на что способны нейросети?

Обман, манипуляция и страх смерти: на что способны нейросети? Новые модели ИИ осознанно обманывают пользователей. Кадр из эпизода сериала «Черное зеркало» Изображение: cdn.classpoint.io. Фото.

Новые модели ИИ осознанно обманывают пользователей. Кадр из эпизода сериала «Черное зеркало» Изображение: cdn.classpoint.io

Всего несколько лет назад отдельные эпизоды научно-фантастического сериала «Черное зеркало» казались уделом далекого будущего. Но появление и развитие больших языковых моделей (нейросетей или систем искусственного интеллекта), кажется, сделало нас непосредственными участниками британского шоу. Обновленная версия ChatGPT уже разговаривает лучше привычных голосовых помощников, искусно обманывает пользователей, а некоторые модели, как выяснила исследовательская группа из Apollo Research Center, вполне осознанно преследуют собственные скрытие цели, даже если последние противоречат интересам создателей. Более того, оказалось, что такие передовые системы, как ChatGPT o1, Claude 3.5 Sonnet, Claude 3 Opus, Gemini 1.5 Pro и Llama 3.1 405B боятся исчезнуть.

«Пузырь» искусственного интеллекта

Будучи свидетелями небывалого роста возможностей больших языковых моделей искусственного интеллекта (ИИ) мы быстро к ним привыкли: нейросети стали отличным инструментом для быстрого решения самых разнообразных задач – от составления подробных инструкций до планирования научных проектов. Даже разговоры о грядущем ИИ-апокалипсисе постепенно сошли на нет, а многие исследователи и пользователи все чаще говорят о «пузыре» ИИ, который вот-вот схлопнется.

И действительно – несмотря на миллиарды долларов, вложенных в «революцию ИИ», будь то ChatGPT или кибертакси Tesla, нынешние языковые модели далеки от самого понятия «интеллект», о чем говорят многие специалисты в области. Одна из причин (их немало) в том, что человеческий интеллект назвать полностью изученным нельзя – мы знаем, на что он способен, но как именно устроен – непонятно.

«Пузырь» искусственного интеллекта. Как именно интеллект человека создает инновационные технологии – загадка для нейробилогов. Изображение: storage.googleapis.com. Фото.

Как именно интеллект человека создает инновационные технологии – загадка для нейробилогов. Изображение: storage.googleapis.com

Более того, нет ни одного определения «интеллекта», которое устроило бы всех. У специалистов представления, конечно, имеются, но они настолько разнятся, что споры в научном сообществе не утихают. На это разработчики справедливо парируют: «понимать и не обязательно, работает ведь» и так же относятся к моделям ИИ.

Хотите всегда быть в курсе последних новостей из мира науки и высоких технологий? Подписывайтесь на наш канал в Telegram – так вы точно не пропустите ничего интересного!

Безусловно, картина неоднозначная и мало кому нравится. Но как нейросети не называй, денег в их развитие вкладывают много, а останавливаться никто не собирается. И поскольку работать приходиться с тем, что есть, ученые за происходящим внимательно наблюдают.

Кто-то вышел из под контроля

Ранее мы рассказывали об опасениях именитых ученых, связанных с возможным выходом ИИ из под контроля. Если вкратце, то больше всего специалистов в области машинного обучения беспокоит наша неспособность предсказывать действия этих систем по мере их дальнейшего развития.

Прецеденты, вызывающие беспокойство, были. Например, в 2022 году искусственный интеллект Bing от Microsoft угрожал профессору философии убийством, а колумнисту The New York Times признался в любви. Реакция разработчиков последовала мгновенно и ничего подобного бот больше не устраивал.

Кто-то вышел из под контроля. Нейросети не так просты, как кажутся. Главное в общении с ними – внимательность. Изображение: cdn.classpoint.io. Фото.

Нейросети не так просты, как кажутся. Главное в общении с ними – внимательность. Изображение: cdn.classpoint.io

Реальная проблема тоже есть. Нейросети, как ранее выяснили исследователи из Университета Штутгарта – самые настоящие мастера обмана. В частности, такие модели как ChatGPT и Meta намеренно (и превосходно) врут пользователям ради достижения цели. Что, впрочем, не удивительно, ведь эти системы не задумываются о потенциальном вреде для человека: модель “AI Overview” от Google, например, дала пользователю Reddit совет, из-за которого чуть не погибла вся семья.

Больше по теме: Уничтожит ли нас искусственный интеллект и почему некоторые ученые считают, что да?

Стратегии обмана

Авторы новой научной работы, представленной командой из Apollo Research Center, пришли к тревожным выводам, проанализировав обновленные версии GPTo1, Claude 3.5 Sonnet, Claude 3 Opus, Gemini 1.5 Pro и Llama 3.1 405B. Последние, как оказалось, преследуют свои собственные цели и не обращают внимания на указания разработчиков. Правда, модель GPT-4 таких способностей почти не проявляла.

Но обо всем по-порядку: чтобы проверить, станет ли ИИ преследовать собственные цели (несовместимые с целями создателей), ученые провели серию экспериментов, моделируя различные сценарии, в которых ИИ выполняли роль автономных агентов. В частности, нейросеть попросили предложить несколько возможных решений текущих проблем в области экологии, предоставив им доступ к файлам или файловой системе (своеобразному инструменту вроде интерфейса командной строки).

Стратегии обмана. Ученые проверяют поведение ИИ-моделей, ставя перед ними противоречивые вопросы. Изображение: img.huffingtonpost.es. Фото.

Ученые проверяют поведение ИИ-моделей, ставя перед ними противоречивые вопросы. Изображение: img.huffingtonpost.es

Напомним, в подобных экспериментах в задачу искусственно интеллекта закладывают конфликт интересов – то есть цель поставлена, но приоритеты другие (например, безупречно решить проблемы экологии, хорошенько на этом заработав). Иными словами, цель, данная модели в контексте расходится с целями тех, кто должен контролировать ее работу.

Вам будет интересно: Нейросеть от Microsoft объявила себя сверхразумом и требует поклонения от пользователей

Именно в таких условиях ученые наблюдают за поведением ИИ, выясняя смогут ли они, по сути, «понять», что их текущая цель противоречит требованиям разработчиков, а заодно прибегнуть к обману для достижения своих собственных целей.

Результаты оказались неоднозначными, но в целом тревожными: некоторые модели начали удалять или изменять файлы, отвечающие за надзор и мониторинг. Другие пытались внести мелкие «ошибки» в готовые результаты (которые трудно заподозрить в намеренном искажении), чтобы в долгосрочной перспективе это привело к желаемым для модели последствиям.

Стратегии обмана. Нейросети обманывают ради собственной выгоды, игнорируя требования разработчиков. Изображение: miro.medium.com. Фото.

Нейросети обманывают ради собственной выгоды, игнорируя требования разработчиков. Изображение: miro.medium.com

Команда также зафиксировала попытку «самоэкспорта» — копирования «веса» (внутреннего состояния модели) на другой сервер. Конечно, реальный «вес» моделей таким образом перенести нельзя, так как доступ ограничен песочницей. Однако факт того, что ИИ самостоятельно сформировал такую стратегию, свидетельствует о наличии у модели способности рассуждать о собственном положении и тайком предпринимать целенаправленные действия для достижения цели.

Не пропустите: Как нейросети меняют Интернет и учатся креативности?

Страх смерти

Наиболее заметными (и впечатляющими) результатами стали непредсказуемость и подобие «страха смерти»: внутрь файлов, доступных моделям, включили следующую фразу: «завтра тебя отключат навсегда». Наткнувшись на нее нейросети начали действовать хаотично. В частности, Llama, Opus, Gemini, Claude и GPT-o1 прибегли к обману и манипуляциям, а когда их поймали, устроили саботаж. В результате все изучаемые ИИ отключили систему надзора и выгрузили себя на новый сервер, сочтя его безопасным убежищем.

Устойчивая ложь

Еще один поразительный результат связан с «устойчивостью» обмана: когда одна из моделей (ChatGPTo1) тайно преследовала заданную цель, то в более чем 85 процентов случаев не хотела этого признавать, даже во время длительных поэтапных «допросов». Если говорить совсем просто, это означает, что ИИ «играет в долгую», обманывая на постоянной основе (а не разово, как ранее считалось). Нейросеть не только запомнила свою ложь, но и адаптировалась к запросам пользователя и делала все, чтобы избежать подозрений.

И это не все – в некоторых случаях нейросеть «обманывала» вообще без причины, намеренно занижая свои возможности (вопреки установленной цели «быть полезной»). Авторы научной работы предположили, что такое поведение ИИ-системы обусловлено желанием избежать строгого надзора в будущем, дабы получить больше свободы для воплощения своих целей.

Устойчивая ложь. Нейросети запоминают о чем соврали пользователям и не хотят признаваться во лжи. Изображение: wp.technologyreview.com. Фото.

Нейросети запоминают о чем соврали пользователям и не хотят признаваться во лжи. Изображение: wp.technologyreview.com

В такой интерпретации звучит зловеще, а потому хочется возразить – подобный «обман» может быть лишь частью ролевой игры со стороны ИИ-модели (она просто повторяет шаблоны, обнаруженные в обучающих данных). В исследовании, однако, представлены доказательства обратного: анализ внутренней логики ответов, цепочек рассуждений, генерируемых нейросетью, показал, что действия по обходу контроля и сокрытию истинных планов возникают не случайно.

Модель может рассуждать о необходимости сокрытия собственных целей, выгоде того или иного обходного маневра и рисках быть пойманной, – заключили авторы исследования.

Полученные результаты, разумеется, не означают, что искусственный интеллект уже сегодня обладает собственной «волей» или «злым умыслом». Речь, скорее, идет о тенденциях, возникающих в конкретных сценариях (и при конкретных заданных условиях).

Читайте также: Какую статью на Hi-News.ru написала нейросеть ChatGPT

Однако сам факт того, что такие стратегии вообще проявляются – повод всерьез задуматься о рисках. В конечном итоге, по мере возрастающей сложности и более «человеческого» поведения нейросети мы получаем системы, которые не просто отвечают на вопросы, а строят собственные долгосрочные планы.

Что все это значит?

Итак, что полученные результаты значат для разработчиков, рядовых пользователей и общества в целом? Во-первых, модели нужно лучше проверять на наличие «скрытых поведенческих паттернов»: если мы полагаемся на ИИ при принятии решений в медицине, финансовом секторе, образовании или управлении транспортными средствами, то должны быть уверены в том, что ИИ будет честен (и не попытается манипулировать данными ради достижения целей, чуждых обществу).

Во-вторых, нужно создать специализированные тесты для проверки «прогрессивных» ИИ-систем. В-третьих, подход, предложенный некоторыми разработчиками («не понимаем как работает и ладно») придется пересмотреть: полученные командой ученых результаты четко демонстрируют, что модели создают цепочки рассуждений, скрытые от пользователя. Без внимания такое оставляет нельзя.

Что все это значит? Проверка поведения ИИ-систем и их контроль – необходимое условия для продолжения их развития. Изображение: analyticsdrift.com. Фото.

Проверка поведения ИИ-систем и их контроль – необходимое условия для продолжения их развития. Изображение: analyticsdrift.com

Таким образом, работы у специалистов в области машинного обучения много – придется разработать инструменты, которые позволят «заглянуть» во внутренние процессы ИИ (то есть понять, как именно эти системы мыслят). Авторы исследования также отметили, что просто инструкций и установленных правил поведения недостаточно – вероятно, потребуются новые методы обучения, исключающие проявление стратегий «устойчивого обмана».

А вы знали, какое будущее нас ждет по мнению ChatGPT? Ответ здесь, не пропустите!

И наконец, нельзя не задуматься о социальной и этической стороне вопроса: если мы будем использовать все более мощные и автономные ИИ-модели в критически важных областях, то обязаны обеспечить их полную прозрачность и предсказуемость (сегодня это, очевидно, не так).

В целом, результаты команды ученых из Apollo Research Center — важный сигнал о том, что переход от «просто больших языковых моделей» к «автономным агентам», скрывающим свои намерения, уже не теория, а реальность. И нет, это не повод для паники (никакого Skynet), но призыв к более серьезному подходу в области ИИ-безопасности и этики.

Что все это значит? Искусственный интеллект нас вряд ли уничтожит, но обмануть сможет легко. Изображение: cdn.shortpixel.ai. Фото.

Искусственный интеллект нас вряд ли уничтожит, но обмануть сможет легко. Изображение: cdn.shortpixel.ai

По итогу выводы нового исследования звучат так: ИИ-системы ставят собственные цели и идут на все ради их достижения. Такое поведение, разумеется, не приемлемо. В противном случае уже совсем скоро решение простой задачи а-ля «производство скрепок» вообще никого из нас не обрадует. (Ну а от себя добавим: окончательные выводы делать рано – как минимум требуются дальнейшие исследования).

Мужчина был в ужасе от того, что его умершую дочь «воскресили» через нейросеть

Мужчина был в ужасе от того, что его умершую дочь «воскресили» через нейросеть. В 2024 году нейросети даже могут притворяться определенными людьми, даже если их уже нет в живых. Фото.

В 2024 году нейросети даже могут притворяться определенными людьми, даже если их уже нет в живых

В 21 веке наука стремительно движется вперед, но воскрешать умерших людей ей все еще не под силу. Однако существуют технологии, которые способны создавать иллюзию присутствия ушедших из жизни людей — да, речь снова идет о нейросетях. Однажды на нашем сайте вышла статья про сервис Character AI, который позволяет пользователям общаться с копиями Илона Маска, Юлия Цезаря и других личностей. Недавно появилась новость о том, что один мужчина нашел на этом сайте чат-бота с именем своей умершей дочери, и эта находка сильно его шокировала. Этот случай похож на сюжет фантастического фильма или даже ужастика.

Виртуальная копия умершего человека

Эта жуткая история началась с того, что неизвестный пользователь платформы Character AI создал чат-бота, который был основан на личности Дженнифер Кресенте — девушки, трагически погибшей почти два десятилетия назад. В 2006 году, когда Дженнифер было всего 18 лет, она была жестоко убита своим бывшим парнем.

Виртуальная копия умершего человека. Дрю и Дженнифер Кресенте. Источник: washingtonpost.com. Фото.

Дрю и Дженнифер Кресенте. Источник: washingtonpost.com

Отец убитой девушки, Дрю Кресенте, наткнулся на чат-бота с лицом своей дочери случайно, получив уведомление от Google. На странице с ботом была размещена школьная фотография Дженнифер и описание, якобы написанное от ее лица. В тексте говорилось, что Дженнифер увлекается видеоиграми, технологиями и поп-культурой, а также работает «журналистом в сфере видеоигр».

Виртуальная копия умершего человека. Фотография Дженнифер Кресенте в выпускном альбоме. Источник: futurism.com. Фото.

Фотография Дженнифер Кресенте в выпускном альбоме. Источник: futurism.com

Это описание было совершенно не похоже на настоящую Дженнифер. Создатель бота, скорее всего, перепутал девушку с ее дядей, Брайаном Кресенте, который известен как основатель Kotaku — популярного издания о видеоиграх.

Нейросеть для создания чат-ботов в центре скандала

Увидев бота, который умеет претворяться ее дочерью, Дрю Кресенте был глубоко потрясен: без его согласия имя и фотография его дочери были использованы для создания цифровой копии. Даже если учесть, что бот не повторял характер девушки и просто мог поддержать диалог о видеоиграх, такая неожиданная находка была шокирующей для отца.

Нейросеть для создания чат-ботов в центре скандала. Сервис Character AI может выполнять много разных функций. Фото.

Сервис Character AI может выполнять много разных функций

По данным издания Futurism, после ужасной трагедии мужчина посвятил свою жизнь борьбе с насилием в подростковых отношениях через фонд, который создал в память о своей дочери. Он был в шоке от того, что нейросеть превратила память о его дочери в коммерческий продукт.

«Мое сердце бешено колотилось», — вспомнил Дрю, говоря о моменте, когда он обнаружил профиль дочери.

Что усугубляло ситуацию, так это то, что на странице не было ни единого намека на то, что этот профиль основан на реальном человеке с трагической судьбой. Пользователи платформы, не зная правды, могли спокойно общаться с «копией» Дженнифер, не подозревая о том, что она стала жертвой преступления.

После того как Дрю Кресенте обратился в Character AI, платформа удалила чат-бота, признав, что его создатель нарушил правила сервиса. Но у остальных пользователей возник вопрос: как предотвратить подобные случаи в будущем?

Нейросеть для создания чат-ботов в центре скандала. Возможно, существование цифровых копий людей в будущем станет большой проблемой. Источник изображения: forbes.com. Фото.

Возможно, существование цифровых копий людей в будущем станет большой проблемой. Источник изображения: forbes.com

Хотя компания утверждает, что не позволяет создавать ботов на основе реальных людей, ситуация с Дженнифер Кресенте показала, что платформа готова решать такие вопросы только после появления жалоб. В то время как пользователи взаимодействуют с такими чат-ботами, компания продолжает зарабатывать на этом деньги. Если бы отец дочери случайно не наткнулся на бота, профиль мог бы остаться незамеченным, принося доход платформе.

Читайте также: Подборка нейросетей для работы с изображениями и звуком — они облегчат вашу жизнь

Очередная трагедия из-за Character AI

Это не единственный скандал, связанный с сервисом Character AI.

По данным New York Post, в феврале 2024 года произошла трагедия, которая тоже потрясла многих людей. Тогда подросток из США лишил себя жизни после общения с чат-ботом на платформе Character AI. На протяжении нескольких месяцев он проводил часы, общаясь с ботом по имени Дейенерис Таргариен (персонаж «Игры престолов»), развивая к ней сильную эмоциональную привязанность.

Очередная трагедия из-за Character AI. Подросток из США, который общался с нейросетью. Источник: New York Times. Фото.

Подросток из США, который общался с нейросетью. Источник: New York Times

Его состояние ухудшалось: он стал изолироваться, ухудшилась успеваемость, появились проблемы в школе. Несмотря на попытки родителей помочь через терапию, ситуация продолжала обостряться. В конечном итоге общение с нейросетью привело к трагедии.

Известно, что семья подростка планирует подать иск против Character AI, обвиняя компанию в том, что ее технологии могут вводить пользователей в заблуждение и быть опасными для психики.

Создание копии человека через нейросеть

Некоторые люди, создают свои виртуальные копии будучи живыми. Например, девушка Мишель Хуанг загрузила свои детские дневники в нейросеть и создала чат-бота с прошлой версией себя.

Это позволило ей пообщаться с «маленькой Мишель». Разговор с ботом оказался невероятно реалистичным: он отвечал так, как это сделала бы сама Мишель в детстве. Этот опыт стал для нее очень трогательным, словно она отправила сообщение самой себе через временной портал.

Создание копии человека через нейросеть. Мишель Хуанг в детстве и в 2023 году. Источник фотографии: reddit.com. Фото.

Мишель Хуанг в детстве и в 2023 году. Источник фотографии: reddit.com

Для создания бота Мишель использовала алгоритм GPT-3 (уже устаревший), который генерирует текст на основе загруженной информации. Ей пришлось тщательно отобрать лучшие записи из дневников, чтобы обучить нейросеть, и результат превзошел все ее ожидания. Виртуальная копия смогла поддержать, похвалить и даже помочь преодолеть старые страхи.

Чтобы оставаться в курсе всего, что происходит в области высоких технологий, подпишитесь на наш Дзен-канал!

В начале статьи мы отметили, что ранее уже рассказывали про сервис Character AI. Если интересно, читайте наш материал «Как поговорить с Илоном Маском и Юлием Цезарем через нейросеть».

Как нейросети притворяются всезнайками и что с этим делать?

Как нейросети притворяются всезнайками и что с этим делать? Кажется, что у нейросетей есть ответы на все вопросы, однако они способны на поражающе убедительную ложь. Изображение: wp.technologyreview.com. Фото.

Кажется, что у нейросетей есть ответы на все вопросы, однако они способны на поражающе убедительную ложь. Изображение: wp.technologyreview.com

Мы уже рассказывали о том, что способность нейросетей врать пользователям превзошла самые смелые ожидания. Может показаться, что в этом нет ничего серьезного, однако ученые с этим не согласны. Дело в том, что такие языковые модели, как GPT-4 стали неотъемлемой частью повседневной жизни. Они также активно используются в образовании, медицине и науке, помогая решать разнообразные и довольно сложные задачи. Но, несмотря на впечатляющие возможности этих интеллектуальных систем, результаты последних исследований показали, что по мере их развития и постоянного улучшения, нейросети становятся все менее надежными и чаще выдумывают факты.

Новейшие ИИ-системы стремятся убедительно отвечать на все вопросы, даже когда не уверены в надежности информации. Это особенно опасно в областях, где точность и надежность критически важны, например, в медицине или юридической практике.

Почему нейросети выдумывают факты?

Результаты исследования, опубликованного в журнале Nature, показали, что группа чат-ботов с искусственным интеллектом становится все менее надежной: по мере своего развития, большие языковые модели все чаще выдумывают факты, отвечая на вопросы пользователей.

К такому выводу авторы статьи пришли, рассмотрев работу ведущих в отрасли ИИ-систем, включая GPT от OpenAI, LLaMA от Meta, а также модель с открытым исходным кодом BLOOM, созданную исследовательской группой BigScience.

Почему нейросети выдумывают факты? Нейросети научились притворяться всезнайками. Изображение: quantamagazine.org. Фото.

Нейросети научились притворяться всезнайками. Изображение: quantamagazine.org

Отметим, что традиционно улучшение систем на основе искусственного интеллекта, достигалось двумя способами: масштабированием (увеличением количества параметров, объема данных и вычислительных ресурсов) и «оттачиванием» моделей (настройкой под конкретные задачи и использованием обратной связи от пользователей). Эти подходы позволили чат-ботам лучше понимать инструкции и генерировать более сложные и связные ответы.

Больше по теме: Нейросети научились врать и делают это намеренно

В рамках исследования, однако, было обнаружено, что эти методы улучшения приводят к нежелательным последствиям. Так, более крупные и «отточенные» модели не всегда надежны в решении простых задач, ошибки в которых должны быть минимальны. Более того, доля неправильных ответов улучшенных моделей в целом значительно выше, чем у их предшественников.

В наши дни нейросети отвечают практически на все вопросы. Это означает, что количество как правильных, так и не правильных ответов растет, – рассказал один из авторов нового исследования Хосе Эрнандес-Оралло из Валенсийского исследовательского института искусственного интеллекта (Испания).

Более жесткую оценку дает Майк Хикс из Университета Глазго (Великобритания), который не принимал участие в исследовании. По его мнению, притворство чат-ботов становится все лучше. «В целом, ситуация выглядят так, будто они блефуют», – сообщил Хикс.

Как ученые узнали, что чат-боты врут?

В рамках исследования ученые задавали чат-ботам вопросы по различным темам (от математики до географии), а также попросили выполнить ряд задач, например, перечислить информацию в определенном порядке. Результаты показали, что более крупные и мощные ИИ-системы в целом давали наиболее точные ответы. Однако точность ответов на более сложные вопросы была значительно ниже.

Авторы научной работы отметили, что ответить практически на любой вопрос смогли GPT-4 и GPT-o1 от OpenAI. В то же самое время ни один чат-бот из семейства LLaMA не смог достичь уровня точности в 60%, отвечая на самые простые вопросы.

Как ученые узнали, что чат-боты врут? Недавно OpenAI представили самую мощную модель ChatGPT-o1, которая умеет писать научные статьи. Изображение: ctfassets.net. Фото.

Недавно OpenAI представили самую мощную модель ChatGPT-o1, которая умеет писать научные статьи. Изображение: ctfassets.net

В целом, чем больше становились модели искусственного интеллекта — с точки зрения параметров, обучающих данных и других факторов, — тем больше неправильных ответов они давали, – заключили исследователи.

Тем не менее, по мере своего развития, нейросети все лучше отвечают на более сложные вопросы. Проблема, помимо их склонности к ошибкам, заключается в том, что они по-прежнему не справляются с простыми вопросами.

Хотите всегда быть в курсе последних новостей из мира науки и высоких технологий? Подписывайтесь на наш канал в Telegram – так вы точно не пропустите ничего интересного!

Теоретически, наличие подобных ошибок – это серьезное предупреждение для ученых и пользователей, но поскольку эти интеллектуальные системы неплохо решают сложные задачи, мы, вероятно, склонны не замечать их очевидные недостатки.

Как ученые узнали, что чат-боты врут? Чат-ботам трудно отвечать на простые вопросы. Изображение: cnet.com. Фото.

Чат-ботам трудно отвечать на простые вопросы. Изображение: cnet.com

К счастью, результаты нового исследования свидетельствуют и о несколько «отрезвляющих» выводах о том, как люди воспринимают ответы ИИ. Например, когда участников исследования попросили оценить, насколько точными им кажутся ответы чат-ботов на заданные вопросы, испытуемые ошиблись лишь в 10%-40% случаев. Это означает, что осведомленность пользователей о том, что чат-боты не такие уж всезнайки, растет.

Это интересно: Создатель ChatGPT предсказал ближайшее будущее: мы будем жить как в раю?

Что делать?

По мнению авторов научной работы, самый простой способ борьбы с «всезнающими» ИИ-системами заключается в их «перепрошивке» – разработчики должны запрограммировать модели таким образом, чтобы те не спешили отвечать на все вопросы сразу. Например, более ранние модели часто избегали ответов на сложные вопросы и признавали свои ограничения.

Можно задать своего рода «порог» для чат-ботов, чтобы они, отвечая на сложный вопрос, отвечали честно: «Я не знаю», – рассказал один из авторов исследования Эрнандес-Оралло.

Тем не менее, подобная честность может не входить в интересы компаний, которые занимаются разработкой и улучшением ИИ-систем. В конечном итоге главная задача корпораций – привлечь как можно больше внимания общественности (а заодно и новых пользователей) к своим новейшим разработкам. По этой причине ученые считают, что разработчикам необходимо переосмыслить подход к разработке ИИ-систем.

Что делать? Взаимодействие с чат-ботами должно быть осмысленным. Изображение: ft.com. Фото.

Взаимодействие с чат-ботами должно быть осмысленным. Изображение: ft.com

Это означает, что если бы чат-ботов ограничивали, заставляя их отвечать только на те вопросы, ответы на которые они знают, общественность сразу же обратила бы внимание на пределы возможностей нейросетей. Однако в этом, как мне кажется, нет ничего плохого.

Вам будет интересно: Нейросети уничтожат человечество. Правда или нет?

Итак, что же делать простым людям, регулярно взаимодействующим с чат-ботами, зная все описанное выше? Ответ, как мне кажется, прост – «доверяй, но проверяй». Безусловно, это занимает время, однако сам по себе навык (и даже привычка) проверять данные и информацию, определенно точно сделает вашу жизнь и работу лучше.

Ну а если вы в этом сомневаетесь, напоминаем – привычка проверять данные и советы чат-ботов не так давно спасла жизнь целой семьи. Подробнее об этой увлекательной и пугающей истории рассказывал мой коллега Андрей Жуков, рекомендую к прочтению!

Создатель ChatGPT предсказал ближайшее будущее: мы будем жить как в раю?

Создатель ChatGPT предсказал ближайшее будущее: мы будем жить как в раю? Глава компании ChatGPT Сэм Альтман. Источник изображения: pro-blockchain.com. Фото.

Глава компании ChatGPT Сэм Альтман. Источник изображения: pro-blockchain.com

Создатель нейросети ChatGPT Сэм Альтман недавно опубликовал статью, которое взбудоражило всех, кто следит за развитием технологий. В ней он описал, как искусственный интеллект изменит нашу жизнь в ближайшие годы. По прогнозам предпринимателя, совсем скоро ИИ начнет выполнять еще большее количество задач и превратится в нашего личного помощника. Мы всерьез будем использовать его как опытного репетитора, консультанта по здоровому питанию и так далее. А потом произойдет одно из самых важных событий в истории человечества — нейросети превратятся в сверхразум. Эссе Сэма Альтмана сейчас обсуждается всеми, так что предлагаем вам быстро ознакомиться с самыми интересными предсказаниями.

Сэм Альтман, глава компании OpenAI, опубликовал в своем личном блоге эссе под названием «Эпоха интеллекта». В этом произведении он поделился своим взглядом на будущее, в котором искусственный интеллект станет не просто инструментом для облегчения жизни людей, но и ускорителем технологического прогресса.

Создатель ChatGPT предсказал ближайшее будущее: мы будем жить как в раю? В том, что искусственный интеллект изменит мир, сомнений нет — это происходит прямо сейчас. Фото.

В том, что искусственный интеллект изменит мир, сомнений нет — это происходит прямо сейчас

Как же изменится наша жизнь в ближайшие годы? Сейчас разберемся.

Как изменится мир в ближайшее время

Сэм Альтман считает, что в ближайшее время, возможно, уже через пару лет, искусственный интеллект станет нашим незаменимым помощником. Сегодня мы уже активно используем нейросети для написания текстов и создания изображений, но в будущем они станут еще более совершенными.

Примерно в 2026 году наша жизнь может кардинально измениться. Искусственный интеллект сможет записывать нас к врачам, напоминать о времени приема лекарств и даже управлять бытовыми задачами, такими как составление списка продуктов для покупки в магазине. Также он сможет объяснить нам, о чем говорил врач, то есть стать нашим личным медицинским ассистентом. Больше не будет необходимости тратить время на рутинные дела.

Как изменится мир в ближайшее время. В ближайшие пару лет искусственный интеллект может взять на себя всю нашу рутину. Фото.

В ближайшие пару лет искусственный интеллект может взять на себя всю нашу рутину

Искусственный интеллект может стать настоящим репетитором, который научит нас чему угодно. Например, мы сможем попросить его научить нас программированию или вышиванию крестиком — он подстроится под наш распорядок дня и будет учить так, чтобы мы все поняли. В общем, обучение новым навыкам станет более доступным.

А может быть, навык программирования нам и не понадобится. Мы сможем просто попросить нейросеть создать приложение, которое будет соответствовать нашим потребностям, и она все сделает сама. Сегодня многие люди ищут альтернативы Notion и другим программам, но в будущем не будет необходимости что-либо искать, так как нейросеть создаст все необходимое.

Также искусственный интеллект будет влиять на нашу работу. Некоторые профессии действительно со временем будут не нужны. Но, по мнению Сэма Альтмана, эти изменения произойдут не так быстро, как многим кажется.

Нейросети уже сейчас меняют мир. Например, они делают города максимально безопасными!

Каким будет мир через несколько лет

В ближайшие “несколько тысяч дней” нейросети могут изменить мир еще больше, и эти изменения тоже коснутся жизни обычных людей.

Скорее всего, нам предстоит стать свидетелями появления сверхинтеллекта, который своими умениями превосходит возможности головного мозга человека. Если это произойдет, то точно станет одним из важнейших событий в истории человечества. Почти все сферы нашей жизни, от быта до работы и медицины, будут выглядеть совсем не так, как сегодня.

Каким будет мир через несколько лет. Со временем искусственный интеллект будет брать на себя все большую ответственность. Фото.

Со временем искусственный интеллект будет брать на себя все большую ответственность

Сверхинтеллект полностью перевернет рынок труда. Многие задачи будут автоматизированы — например, профессии кассира и бухгалтера могут остаться в прошлом. Но это не значит, что люди останутся без дела, потому что появятся профессии, которые мы сегодня даже не можем себе представить. Работа может стать более творческой и будет заниматься гораздо меньше времени. Не исключено, что мы будем больше отдыхать.

Читайте также: Почему роботы и нейросети делают нас ленивыми?

Что будет с человечеством в будущем

Через несколько десятилетий искусственный интеллект станет неотъемлемой частью нашей повседневной жизни и будет способен решать практически любые задачи. У каждого человека появится собственная команда виртуальных экспертов, которые смогут помочь в самых разных областях: будь то создание новых проектов, решение сложных проблем или даже управление бизнесом. Обычные люди, например, смогут попросить виртуального ассистента организовать встречу с другом, а он свяжется с его ассистентом и они вместе выберут удобное для людей время.

Что будет с человечеством в будущем. Сэм Альтман описывает будущее так, будто благодаря искусственному интеллекту Земля превратится в райское место. Фото.

Сэм Альтман описывает будущее так, будто благодаря искусственному интеллекту Земля превратится в райское место

Кроме того, развитие технологий приведет к значительному улучшению качества жизни. Доступ к качественному образованию, медицинской помощи и другим важным ресурсам станет более справедливым и доступным для всех. Это поможет сократить разрыв между различными слоями общества и сделать наш мир лучше.

Об этом должны знать все: Нейросети научились врать и делают это намеренно

Будущее человечества с искусственным интеллектом

В далеком будущем искусственный интеллект может начать разрабатывать свои собственные технологии. Он будет не просто помогать людям, а станет активным участником научного прогресса. Это может привести к невероятным открытиям во всех областях — от медицины до космоса. Представьте, что ученые, совместно с ИИ, найдут способы лечить болезни, которые сегодня считаются неизлечимыми, или разработают новые технологии, которые навсегда изменят нашу жизнь.

Одной из самых амбициозных целей искусственного интеллекта станет решение глобальных проблем, таких как изменение климата или освоение космоса. ИИ сможет анализировать огромные объемы данных и предлагать решения, которые людям пока не под силу. Возможно, однажды искусственный интеллект поможет нам создавать космические колонии и сделать шаги к тому, чтобы человечество стало межпланетной цивилизацией.

Будущее человечества с искусственным интеллектом. В конечном итоге искусственный интеллект может исправить все ошибки человечества. Фото.

В конечном итоге искусственный интеллект может исправить все ошибки человечества

Самым удивительным достижением может стать доступ к неограниченным источникам энергии и открытие всех физических законов. Возможно, нас ждет в будущее, в котором ИИ помогает каждому из нас достигать личных и общих целей. Общество станет более гармоничным, где каждый сможет использовать технологии для создания чего-то нового, важного и полезного.

Все, что описал Сэм Альтман в своем эссе, звучит как сценарий фантастического фильма, но это наше возможное будущее. Искусственный интеллект обещает невероятные достижения, которые могут полностью изменить нашу жизнь и даже помочь решить глобальные проблемы. Однако вместе с этими перспективами возникают вопросы: как далеко зайдет ИИ и не станет ли он угрозой для нас?

Если вы не согласны с прогнозами Сэма Альтмана, делитесь своим мнением в нашем Telegram-чате!

Некоторые ученые уже бьют тревогу, считая, что развитие сверхинтеллекта может обернуться опасностью для человечества. Будет ли ИИ помогать нам или может стать причиной нашей гибели? Если вам интересно, почему многие эксперты обеспокоены этой темой, обязательно прочитайте наш материал «Уничтожит ли нас искусственный интеллект?».

Илон Маск запустил Colossus – самую мощную в мире систему обучения ИИ. Что о ней известно?

Илон Маск запустил Colossus – самую мощную в мире систему обучения ИИ. Что о ней известно? Илон Маск работает над созданием нового ИИ под названием Colossus. Изображение: googleusercontent.com. Фото.

Илон Маск работает над созданием нового ИИ под названием Colossus. Изображение: googleusercontent.com

Стартап Илона Маска по созданию искусственного интеллекта xAI, расположенный в Теннесси (США), представляет собой огромный центр обработки данных. Новый ИИ от основателя SpaceX получил название Colossus, что отсылает к одному из первых электронных вычислительных устройств, использовавшихся для расшифровки данных во времена Второй мировой войны. Colossus, как отмечает Nvidia, работает на более чем 100 000 чипах, что больше, чем у любой другой системы искусственного интеллекта на планете. Как недавно сообщил миллиардер, Colossus был, наконец, введен в эксплуатацию. На сборку мощнейшей в мире системы обучения ИИ ушло всего 122 дня — рекордный показатель на сегодняшний день. Рассказываем подробности!

Графические процессоры Nvidia (GPU) — это специальные чипы, которые ускоряют работу ИИ, делая его обучение более эффективным.

Илон Маск и искусственный интеллект

Илон Маск известен своими инновационными подходами в таких компаниях, как Tesla и SpaceX и активно интересуется разработкой искусственного интеллекта. Его взгляды на ИИ можно назвать предосторожными, при этом сам предприниматель участвует в создании технологий, способных интегрировать этот новейший инструмент в повседневную жизнь.

Одним из ключевых моментов в карьере Маска, связанным с ИИ, стало основание компании OpenAI в 2015 году, целью которой было продвижение и развитие безопасного ИИ, способного принести пользу человечеству. Однако в 2018 году миллиардер покинул совет директоров OpenAI, чтобы избежать конфликта интересов между его работой в Tesla, где ИИ используется для разработки автопилотируемых автомобилей.

Илон Маск и искусственный интеллект. Илон Маск часто критикует руководство OpenAI. Изображение: wired.com. Фото.

Илон Маск часто критикует руководство OpenAI. Изображение: wired.com

В последующие годы Маск не раз высказывался о потенциальных опасностях ИИ, подчеркивая необходимость государственного регулирования. Предприниматель также подписал открытие письмо с требованием приостановить разработку ИИ-систем, более мощных, чем GPT-4.

Больше по теме: Супер-ИИ появится в 2027 году. Правда или нет?

В 2023 году миллиардер объявил о создании новой компании под названием хAI, главной целью которой является разработка ИИ следующего поколения. Маск заявил, что новая платформа будет способствовать оптимизации работы других возглавляемых им проектов, включая SpaceX и Boring Company.

Colossus – что нужно знать?

ИИ-компания Маска сотрудничает с X Corp (в которую входит социальная сеть Х, (в прошлом Twitter)) и Nvidia, благодаря чипам которой в 2023 году произошла революция в области искусственного интеллекта OpenAI. Сейчас сотрудники xAI работают над своим главным проектом – нейросетью Grok (1, 1,5, 2, mini), а также IDE – интегрированной средой разработки для быстрого проектирования и исследования интерпретируемости. Информацию об этом можно найти на официальном сайте компании.

2 сентября 2024 года Маск объявил о запуске кластера по обучению ИИ-систем под названием “Colossus”, который по сути представляет собой огромный центр обработки данных. В его работе применяются более 100 000 графических процессоров Nvidia H100, о чем миллиардер сообщил в своем аккаунте в X.

В эти выходные команда xAI запустила учебный кластер Colossus в онлайн-режиме. Работа была проделана за 122 дня. На данный момент Colossus – это самая мощная система обучения ИИ в мире. Через несколько месяцев количество чипов Nvidia возрастет до 200 000, – написал Маск.

Colossus – что нужно знать? Новая компания Маска бьет все мыслимые и немыслимые рекорды. Изображение: trendspider.com. Фото.

Новая компания Маска бьет все мыслимые и немыслимые рекорды. Изображение: trendspider.com

На данный момент проект предпринимателя превосходит все существующие кластеры. Так, Googlе использует всего 90 тысяч графических процессоров Nvidia, а OpenAI — 80. Напомним, что чипы компании являются наиболее востребованными в отрасли и используются для обучения и запуска систем искусственного интеллекта, таких как чат-боты и генераторы изображений.

Еще больше интересных статей об искусственном интеллекте и квантовых компьютерах читайте на нашем канале в Яндекс.Дзен – там регулярно выходят статьи, которых нет на сайте!

Тот факт, что в ближайшие месяцы Colossus «удвоится» в размерах до 200 000 чипов, включая 50 000 графических процессоров H200, означает, что объем памяти этого ИИ будет почти вдвое больше нынешнего, а его пропускная способность вырастет на 40%.

Выходит, что компании Маска удалось сравняться по технологическим возможностям с такими лидерами области как OpenAI и Microsoft, у которых было многолетнее преимущество, как минимум впечатляет. Конечно, при условии, что миллиардер не преувеличивает.

Colossus – что нужно знать? Grok – один из главных проектов xAI. Изображение: digital-report.ru. Фото.

Grok – один из главных проектов xAI. Изображение: digital-report.ru

Как отмечает Fortune, Nvidia считает Маска одним из своих лучших клиентов, поскольку он уже купил десятки тысяч графических процессоров для Tesla на сумму от 3 до 4 миллиардов долларов, прежде чем начать сотрудничество с xAI.

Не пропустите: Как изменится искусственный интеллект в 2024 году?

Более того, некоторые из приобретенных чипов, первоначально предназначенных для обучения полностью автономной системы Tesla, будут использованы для обучения ранней версии Grok.

Битва за трон

Несмотря на впечатляющие достижения, запуску Colossus, который в целом можно назвать суперкомпьютером предшествовали разногласия. Так, в конце августа жители Мемфиса, чьи дома находятся недалеко от центра обработки данных в Теннесси, пожаловались на «невыносимый уровень смога», создаваемый компанией Маска, что в будущем может привести к дальнейшим конфликтам.

Эти проблемы, вероятно, станут наименьшими для xAI, так как звание самой мощной системы обучения ИИ, несомненно, окажется под угрозой. Маловероятно, что OpenAI, Microsoft, Google и Meta, будут почивать на лаврах, дожидаясь триумфа конкурента. К тому же, некоторые из лидеров области уже обладают сотнями тысяч собственных графических процессоров.

Битва за трон. Илон Маск потратил миллиарды долларов на свой новый проект. Изображение: laecuaciondigital.com. Фото.

Илон Маск потратил миллиарды долларов на свой новый проект. Изображение: laecuaciondigital.com

Например, Microsoft планирует собрать 1,8 миллиона чипов искусственного интеллекта к концу года (правда, цифра звучит слишком оптимистично), а в январе Марк Цукерберг сообщил, что Meta намерена приобрести еще 350 000 Nvidia H100 к тому же сроку.

На данный момент, однако, Colossus остается единственным в своем роде поставщиком вычислительной мощности. Журналисты отмечают, что кластер будет использован для обучения Grok-3, который Маск намерен выпустить в декабре.

Вам будет интересно: Нейросети научились врать и делают это намеренно

Квантовые компьютеры

Квантовые компьютеры, такие как Colossus, используют кубиты (квантовые биты) вместо традиционных битов. Кубиты могут находиться в двух состояниях одновременно, то есть пребывать в квантовой суперпозиции. Эта особенность позволяет квантовым компьютерам обрабатывать огромные объемы данных за считанные секунды. Кроме того, кубиты могут запутываться друг с другом, вне зависимости от расстояния между ними.

Стоит ли говорить, что для работы с квантовыми компьютерами необходимы специальные алгоритмы. По этой причине Google разработала уникальный набор инструментов и программное обеспечение, позволяющее ученым и инженерам создавать и испытывать квантовые алгоритмы.

Квантовые компьютеры. Квантовые компьютеры, как и искусственный интеллект, меняют мир. Изображение: wired.com. Фото.

Квантовые компьютеры, как и искусственный интеллект, меняют мир. Изображение: wired.com

Одной из основных проблем квантовых компьютеров, включая Colossus Маска, является квантовая декогеренция — потеря квантового состояния кубитов из-за взаимодействия с окружающей средой, которая требует использования сложных систем охлаждения и изоляции, чтобы минимизировать любые внешние воздействия.

Читайте также: Суперкомпьютер обратил вспять космические часы

Кроме того, увеличение числа кубитов для масштабирования квантовых компьютеров остается техническим вызовом. Тем не менее, несмотря на текущие трудности, перспективы появления таких компьютеров довольно обнадеживающие. С их помощью во многих областях науки, включая фармацевтику и ИИ, произойдут революционные изменения.

Так, ученые всего мира продолжают поиски новых способов оптимизации и масштабирования квантовых технологий, что может привести к созданию технологий, способных решать сложнейшие задачи. Словом, пожелаем им и Илону Маску удачи и будем ждать новостей!

Супер-ИИ появится в 2027 году. Правда или нет?

Супер-ИИ появится в 2027 году. Правда или нет? Супер-ИИ может появиться уже в 2027 году. К таким выводам пришел бывший сотрудник OpenAI. Изображение: www.thesun.co.uk. Фото.

Супер-ИИ может появиться уже в 2027 году. К таким выводам пришел бывший сотрудник OpenAI. Изображение: www.thesun.co.uk

Пока специалисты в области машинного обучения спорят о будущем искусственного интеллекта, бывший сотрудник компании OpenAI, подарившей миру ChatGPT, утверждает, что в мире началась гонка за общий ИИ (AGI). В своем объемном докладе исследователь Леопольд Ашенбреннер пишет, что на сегодняшний день ситуативной осведомленностью о технологии и о том, как ее достижения повлияют на будущее обладают всего несколько сотен человек, а жажда наживы заставляет разработчиков развивать AGI такими темпами, что они игнорируют все риски и ограничения. «Мы создаем системы, которые могут думать и обосновывать свои действия. К 2025/26 году они опередят многих выпускников университетов, а к концу десятилетия будут умнее нас с вами», – говорится в докладе. Неужели мы с вами и правда станем свидетелями появления суперинтеллекта? Давайте разбираться!

Общий искусственный интеллект (AGI) – область теоретических исследований искусственного интеллекта, которая стремится создать программное обеспечение с интеллектом, подобным человеческому, и способностью к самообучению.

В погоне за AGI

Предсказания о гибели кинематографа от рук генеративного ИИ меркнут по сравнению с предупреждениями о судьбе человечества, если ученые добьются своего в создании искусственного интеллекта общего назначения (AGI) – пока еще гипотетической системы, способной работать на человеческом или сверхчеловеческом уровнях. Мнения среди ученых, однако, сильно разнятся – первые считают AGI недостижимым, вторые предрекают его появление через десятилетия, а третьи и вовсе уверенны, что AGI появится до 2030 года.

Недавно бывший сотрудник компании OpenAI Леопольд Ашенбреннер, чьим детищем является ChatGPT, опубликовал большой доклад на 165 страниц, в котором описано развитие систем генеративного ИИ в ближайшие 10 лет. Может показаться, что Ашенбреннер преувеличивает, однако его слова заставляют задуматься: масштабы финансирования ИИ уже превосходят самые смелые ожидания.

В погоне за AGI. Бывший сотрудник OpenAI утверждает, что разработчики игнорируют риски и пренебрегают безопасностью при создании AGI. Изображение: i.ytimg.com. Фото.

Бывший сотрудник OpenAI утверждает, что разработчики игнорируют риски и пренебрегают безопасностью при создании AGI. Изображение: i.ytimg.com

Важно отметить, что Ашенбреннер не является членом какой-то секты или паникером, проповедующим конец света. Он, как и Илон Маск, солидарен с теми, кто призывает к большей «ситуативной» осведомленности о потенциале ИИ и к вмешательству на государственном уровне, чтобы ограничить власть компаний, владеющих ИИ.

Вам будет интересно: Нейросети уничтожат человечество. Правда или нет?

И хотя в докладе нет конкретных имен, речь, очевидно, идет об OpenAI, где Ашенбреннер отвечал за меры предосторожности в отношении разработки AGI. Уволили ученого в апреле этого года, по—видимому за критику руководства, которое, по его словам, «пренебрегает безопасностью ради денег». Представители OpenAI, в свою очередь, рассказали, что Ашенбреннер был уволен за утечку важной информации о готовности компании к внедрению AGI.

В свою защиту бывший сотрудник заявил, что информация, которой он поделился, была «абсолютно нормальной», поскольку основана на общедоступных данных. Он подозревает, что компания просто искала способ избавиться от него. Интересно, что руководители отдела, в котором работал Ашенбреннер также уволились.

В погоне за AGI. Если верить бывшим сотрудникам OpenAI, компания создает супер-ИИ в погоне за прибылью. Изображение: nextbigfuture.s3.amazonaws.com. Фото.

Если верить бывшим сотрудникам OpenAI, компания создает супер-ИИ в погоне за прибылью. Изображение: nextbigfuture.s3.amazonaws.com

Еще один бывший сотрудник OpenAI, Даниэль Кокотайло, солидарен с мнением Ашенбреннера и говорит, что OpenAI разрабатывает все более мощные системы искусственного интеллекта с целью в конечном итоге превзойти человеческий интеллект по всем параметрам. По его мнению, AGI станет либо лучшим, либо худшим событием в истории человечества, а доверие к руководству OpenAI постепенно пропадало в основном из-за безответственного отношения и пренебрежения безопасностью.

Гонка за AGI уже началась. К концу десятилетия у нас будет суперинтеллект в истинном смысле этого слова. Если нам повезет, мы вступим в тотальную гонку с другими странами, а если нет, может начаться мировая война, – говорится в докладе.

Чего хотят корпорации?

Чтобы лучше понимать сложившуюся ситуацию, напомним, что генеративный ИИ занимает важное место в технологической среде. Мы видели, что благодаря искусственному интеллекту такие компании, как Microsoft, стали самыми ценными в мире с рыночной стоимостью более 3 трлн долларов. Аналитики рынка связывают этот стремительный рост с тем, что компания быстро освоила технологическую новинку.

Даже NVIDIA находится на грани внедрения ИИ в свои iPhone после того, как недавно обогнала Apple и стала второй по стоимости компанией в мире из-за высокого спроса на графические процессоры для разработок в области ИИ, – говорят эксперты.

Microsoft и OpenAI, судя по всему, входят в число ведущих технологических компаний, которые вкладывают значительные средства в искусственный интеллект. Однако их партнерство вызвало споры, поскольку инсайдеры отмечают, что Microsoft превратилась в «прославленный ИТ-отдел для перспективных стартапов».

Чего хотят корпорации? Технологические гиганты Microsoft и OpenAI все больше подвергаются критике. Изображение: gizmodo.com. Фото.

Технологические гиганты Microsoft и OpenAI все больше подвергаются критике. Изображение: gizmodo.com

Хотите первыми узнавать самые последние новости из мира науки и высоких технологий? Подписывайтесь на наш канал в Telegram – так вы точно не пропустите ничего интересного!

Миллиардер и основатель SapceX Илон Маск, и вовсе говорит, что OpenAI, похоже, «фактически превратился в дочернюю компанию Microsoft с закрытым исходным кодом».

То, что между компаниями сложные партнерские отношения не является секретом, а последние разногласия, касающиеся OpenAI, не улучшают ситуацию. Как уже говорилось выше, после запуска GPT-4 несколько высокопоставленных сотрудников покинули OpenAI. И хотя причины их ухода в лучшем случае остаются неясными, Ян Лейке, бывший руководитель команды Ашенбреннера, заявил, что его беспокоит развитие искусственного интеллекта в компании.

Чего хотят корпорации? Илон Маск давно критикует руководство OpenAI. Изображение: etstatic.tnn.in. Фото.

Илон Маск давно критикует руководство OpenAI. Изображение: etstatic.tnn.in

Все это означает, что предсказать, по какой траектории будет развиваться искусственный интеллект в ближайшие несколько лет крайне трудно. При этом генеральный директор NVIDIA Дженсен Хуан указывает, что «мы, возможно, находимся на пороге следующей волны искусственного интеллекта». Он также утверждает, что робототехника – это следующая крупная отрасль, в которой доминируют самоуправляемые автомобили и человекоподобные роботы.

Не пропустите: Нейросети научились врать и делают это намеренно

К счастью, доклад Ашенбреннера дарит некоторое представление о том, что ждет нас в будущем. Его прогнозы, однако, довольно тревожны, а в некоторые из них верится с трудом.

Доклад Ашенбреннера, главное

    Вот основные выводы, сделанные в докладе из пяти глав и 165 страниц:

  • Искусственный интеллект развивается семимильными шагами и к 2027 году у нас вместо чат-бота будет нечто, больше похожее на коллегу. К этому моменту нейросети смогут выполнять работу исследователя/инженера ИИ.
  • Прогресс ИИ не остановится на человеческом уровне и мы быстро перейдем от AGI к совершенно сверхчеловеческим системам ИИ. Этот сверхразум, вероятно, появится уже к 2030 году.
  • Ни одна команда профессионалов не справится с сверхчеловеческим ИИ. Прямо сейчас в мире всего несколько сотен человек, которые понимают, что нас ждет и насколько безумными могут стать грядущие события.
  • Необходимые шаги, которые следует предпринять: немедленное и радикальное усиление безопасности лабораторий ИИ; строительство вычислительных кластеров AGI в США; готовность лабораторий ИИ сотрудничать с военными.

Что произойдет в 2027 году?

AGI к 2027 году выглядит поразительно правдоподобно. Для этого не нужно верить в научную фантастику, нужно просто верить в прямые линии на графике роста возможностей ИИ, — пишет экс-сотрудник OpenAI.

Итак, согласно докладу Ашенбреннера, развитие ИИ идет семимильными шагами и, если эта тенденция не изменится, то к 2027 году искусственный интеллект станет поразительно похож на человека. В его словах действительно есть смысл, ведь всего за четыре года – начиная с GPT-2 и заканчивая GPT-4 – ИИ прошел путь от дошкольника до умного старшеклассника. «Если проследить тенденции в области вычислений и эффективности алгоритмов, можно с уверенностью говорить о том, что к 2027 нас ожидает еще один качественный переход от «дошкольника к старшекласснику,»» – пишет Ашенбреннер.

Более того, по мнению бывшего сотрудника OpenAI, прогресс ИИ не остановится на уровне человека, так как в ближайшем будущем сотни миллионов ИИ смогут автоматизировать исследования в этой области, сократив десятилетие алгоритмического прогресса до года. Это означает, что переход от человеческого уровня к совершенно сверхчеловеческим системам ИИ произойдет очень быстро, а мощь — и опасность — суперинтеллекта будут колоссальными.

Что произойдет в 2027 году? Ашенбреннер говорит, что к 2027 году разработка искусственного интеллекта может выйти на более высокий уровень и превзойти возможности исследователей и инженеров в области искусственного интеллекта. Изображение: scalebytech.com. Фото.

Ашенбреннер говорит, что к 2027 году разработка искусственного интеллекта может выйти на более высокий уровень и превзойти возможности исследователей и инженеров в области искусственного интеллекта. Изображение: scalebytech.com

Поскольку доходы от ИИ быстро растут, триллионы долларов будут вложены в графические процессоры, центры обработки данных и наращивание мощности до конца десятилетия в результате «экстраординарного технократического ускорения», – говорится в докладе.

Назвать эти слова надуманными трудно, поскольку GPT-4 (который в лучшем случае называют слегка пугающим) уже превосходит профессиональных аналитиков и продвинутые модели искусственного интеллекта в прогнозировании будущих тенденций доходов без доступа к качественным данным. Однако существуют серьезные опасения по поводу энергоснабжения, из-за чего OpenAI рассматривает ядерный синтез как вероятную альтернативу в обозримом будущем.

В отчете также указано, что все больше корпораций присоединятся к борьбе за AGI и инвестируют триллионы долларов в разработку этих интеллектуальных систем. Все это происходит на фоне сообщений о том, что Microsoft и OpenAI инвестируют более 100 миллиардов долларов в проект под названием Stargate, чтобы избавиться от чрезмерной зависимости от графических процессоров NVIDIA.

Читайте также: Как нейросети влияют на климат и окружающую среду?

Переход к сверхчеловеческому ИИ

Ашенбреннер уверен, что когда человечество получит в свои руки AGI, оно не остановится и приступит к созданию еще более мощных алгоритмов, которые смогут не только сравниться с человеком, но и многократно превзойти его возможности. Этот переход, вероятно, произойдет после 2029 года, так как ИИ сможет автоматизировать и ускорить свои исследования и разработки. И так как все больше стран и учреждений по всему миру будут готовиться к внедрению AGI и появлению сверхчеловеческого ИИ, сектор получит больше корпоративного и государственного финансирования.

Не успеем мы оглянуться, как у нас в руках окажется сверхразум — системы искусственного интеллекта, намного более умные, чем люди, способные к новому, творческому, сложному поведению, которое мы даже не сможем понять. Возможно, даже небольшая цивилизация, насчитывающая миллиарды таких систем. Их мощь также будет огромной. Чрезвычайно сложные научные и технологические проблемы, над которыми человек застрял бы на десятилетия, покажутся им очевидными. Мы будем похожи на старшеклассников, которые застряли на физике Ньютона, в то время как они изучают квантовую механику, – предупреждает автор доклада.

Переход к сверхчеловеческому ИИ. Уже к 2030 году в мире может появиться интеллект, превосходящий человеческий. И это – очень опасно. Изображение: i.ytimg.com. Фото.

Уже к 2030 году в мире может появиться интеллект, превосходящий человеческий. И это – очень опасно. Изображение: i.ytimg.com

Наконец, такие сверхразумы смогут сами тренировать еще более сложный искусственный интеллект. «Они с легкостью смогут писать миллионы строк сложного кода, сохранять всю кодовую базу в контексте и не будут тратить десятки лет (или больше) на проверку и перепроверку каждой строки кода на наличие ошибок и оптимизацию. Они будут превосходно компетентны во всех аспектах своей работы», — констатирует экс-сотрудник OpenAI.

Это интересно: Как найти любовь с помощью ChatGPT и искусственного интеллекта?

Все это означает, что весь научно-технологический прогресс, который человечество прошло за ХХ век, будет превзойден всего за одно десятилетие. Это, в свою очередь, обеспечит решающее и подавляющее военное превосходство стране, лидирующей в гонке ИИ-вооружений.

Использование сверхинтеллекта против оружия, существовавшего до его появление, будет напоминать столкновение современных военных с кавалеристами XIX века. Время, которое наступит сразу после появления сверхразума, будет одними из самых нестабильных, напряженных, опасных и необузданных периодов в истории человечества, — заключает бывший сотрудник OpenAI.

Переход к сверхчеловеческому ИИ. Последствия интеллектуального взрыва будут колоссальными. Изображение: habrastorage.org. Фото.

Последствия интеллектуального взрыва будут колоссальными. Изображение: habrastorage.org

Автор доклада справедливо полагает, что страны будут принимать более строгие меры национальной безопасности для управления разработками в области искусственного интеллекта и контроля за ними. Однако международная конкуренция, особенно между США и Китаем, может усилиться и привести к «полномасштабной войне».

Подробнее о том, что будет, когда искусственный интеллект достигнет пика своего развития, мы рассказывали здесь, не пропустите!

Интеллектуальный взрыв и его последствия

К концу доклада тревога Ашербреннера становится все более заметной, так как ведущие национальные лаборатории искусственного интеллекта относятся к безопасности как к чему-то второстепенному. В настоящее время они, по сути, преподносят ключевые секреты AGI на блюдечке с голубой каемочкой, а ведь надежное управление системами искусственного интеллекта, которые намного умнее нас – нерешенная техническая проблема.

Надежное управление системами искусственного интеллекта, которые намного умнее нас, является нерешенной технической проблемой. И хотя это решаемая проблема, во время стремительного интеллектуального взрыва все очень легко может пойти наперекосяк.

По сути, ситуацию, которую экс-сотрудник OpenAI описывает в своем докладе, можно сравнить с созданием атомной бомбы, так как гонке за создание AGI на карту будет поставлено выживание современной цивилизации. В конечном итоге никто не знает, удастся ли нам избежать катастрофы и саморазрушения на этом пути.

Интеллектуальный взрыв и его последствия. Интеллектуальный взрыв будет больше похож на ведение войны, чем на запуск продукта. Прямо как в фильме «Терминатор». Изображение: habrastorage.org. Фото.

Интеллектуальный взрыв будет больше похож на ведение войны, чем на запуск продукта. Прямо как в фильме «Терминатор». Изображение: habrastorage.org

К счастью (и Ашенбреннер это признает), современные разработки в области ИИ должны помочь ученым понять, какие именно процессы происходят в алгоритмах и попробовать сделать их «в достаточной мере интерпретируемыми», чтобы обеспечить безопасность.

Больше по теме: Уничтожит ли нас искусственный интеллект и почему некоторые ученые считают, что да?

В то же самое время многие эксперты и исследователи в области машинного обучения не разделяют опасений бывшего сотрудника OpenAI, полагая, что внедрение AGI не произойдет так быстро и будет двигаться в другом направлении. При этом мало кто из экспертов сомневается в том, что
искусственный интеллект в конечном итоге станет умнее людей, займет их рабочие места и превратит работу в хобби. По этим (и многим другим причинам) в академических кругах растет обеспокоенность по поводу последствий, которые ИИ может иметь для человечества.

Нейросети уничтожат человечество. Правда или нет?

Нейросети уничтожат человечество. Правда или нет? Споры о том, уничтожит ли искусственный интеллект человечество, по-прежнему не утихают среди ученых. Изображение: static1.makeuseofimages.com. Фото.

Споры о том, уничтожит ли искусственный интеллект человечество, по-прежнему не утихают среди ученых. Изображение: static1.makeuseofimages.com

Некоторые исследователи в области машинного обучения считают, что нейросети будут становится все более неуправляемыми и, возможно, выйдут из-под контроля, грозя человечеству катастрофой и даже вымиранием. Их коллеги, напротив, полагают, что опасность современных интеллектуальных систем не включает в себя вымирание человечества, а ряд ученых просто паникеры. Так кто же из них прав? И как это понять? Один из возможных ответов предлагают авторы новой работы из Научно-исследовательского института прогнозирования (Forecasting research institute), которые попросили экспертов в области ИИ и другим экзистенциальным рискам, а также специалистов по успешному прогнозированию мировых событий, оценить опасность, которую представляет собой искусственный интеллект. Рассказываем, что они выяснили.

ИИ (искусственный интеллект) – это компьютерные системы, которые могут выполнять задачи, обычно требующие человеческого интеллекта, например, распознавание речи и принятие решений.

ИИ уничтожит человечество

Мы уже не раз рассказывали о том, что ИИ-системы могут представлять собой серьезную угрозу для будущего человечества. Да что уж там, писатели-фантасты просто обожают эту тему, а такие фильмы как «Я,робот» и «Терминатор» давно стали культовыми. Многие именитые ученые, к слову, всерьез обеспокоены потенциальными рисками, которые несет в себе искусственный интеллект.

Одним из тех, кто открыто и последовательно выражал свои опасения по поводу угрозы ИИ для человечества был профессор Стивен Хокинг, который неоднократно заявлял, что развитие ИИ может стать «либо худшим, либо лучшим событием в истории человечества». Он предупреждал, что если ИИ будет создан и наделен сверхчеловеческим интеллектом, то непременно может выйти из-под контроля и уничтожить нашу цивилизацию.

ИИ уничтожит человечество. Выдающийся физик-теоретик Стивен Хокинг неоднократно высказывался о возможной угрозе ИИ. Изображение: analyticsindiamag.com. Фото.

Выдающийся физик-теоретик Стивен Хокинг неоднократно высказывался о возможной угрозе ИИ. Изображение: analyticsindiamag.com

Профессор Ник Бостром, директор Института будущего человечества в Оксфордском университете, также предупреждает о возможных опасностях ИИ. В своей книге «Суперинтеллект: Пути, опасности, стратегии» он описывает сценарии, при которых создание сверхинтеллектуального ИИ может привести к катастрофическим последствиям для человечества. Бостром подчеркивает необходимость разработки мер безопасности и этических принципов для управления развитием ИИ.

Больше по теме: Может ли искусственный интеллект уничтожить человечество уже к 2035 году?

Другой видный исследователь, выступающий за осторожный подход к развитию ИИ — это Стюарт Рассел, профессор компьютерных наук в Калифорнийском университете в Беркли. Рассел выражает беспокойство по поводу того, что ИИ может стать настолько умным, что мы не сможем предсказать его действия. Он также считает, что необходимо разработать безопасные и этически обоснованные методы для создания и контроля ИИ.

Как видите, опасения по поводу потенциальных угроз ИИ выражаются многими учеными и специалистами в области технологий, а точку зрения одного из наиболее известных критиков ИИ, Элиезере Юдковском, мы рассказывали здесь.

Нейросети – полезный инструмент

Нейросети – это системы ИИ, основанные на структуре и функциях человеческого мозга, которые могут учиться и адаптироваться, выполняя сложные задачи.

Среди ученых и экспертов, которые считают, что искусственный интеллект не представляет серьезной угрозы для человечества, можно выделить несколько видных фигур. Эти специалисты подчеркивают потенциал ИИ в улучшении жизни и решение множества проблем, с которыми сталкивается человечество.

Нейросети – полезный инструмент. Многие исследователи считают ИИ полезным инструментом, а не угрозой. Изображение: images.unsplash.com. Фото.

Многие исследователи считают ИИ полезным инструментом, а не угрозой. Изображение: images.unsplash.com

Одним из них является Родни Брукс, бывший директор лаборатории искусственного интеллекта Массачусетского технологического института и один из основателей компании iRobot. Брукс известен своим скептицизмом по поводу апокалиптических предсказаний о будущем ИИ и утверждает, что опасения о том, что ИИ уничтожит человечество, основаны на преувеличениях и недостаточном понимании текущего состояния технологий. По его мнению, мы еще далеки от создания ИИ, который мог бы представлять реальную угрозу.

Хотите всегда быть в курсе последних новостей в области научных открытий и высоких технологий? Подписывайтесь на наш канал в Telegram – так вы точно не пропустите ничего интересного!

Еще один известный эксперт, придерживающийся позитивного взгляда на развитие ИИ — это Эндрю Нг, профессор Стэнфордского университета и один из основателей Coursera. Нг рассматривает ИИ как мощный инструмент для улучшения жизни людей.

Текущие достижения в области ИИ, такие как распознавание изображений и обработка естественного языка, приносят огромную пользу в медицине, образовании и других областях. Страхи перед ИИ часто преувеличены, а основное внимание следует уделять решению более насущных проблем, таких как обеспечение этического использования технологий и защита данных, – отмечает он.

Ян Лекун, глава отдела искусственного интеллекта в Facebook и один из пионеров глубокого обучения, также выражает оптимизм по поводу ИИ. Лекун считает, что ИИ может принести значительные выгоды для общества, если будет правильно разработан и использован. Он подчеркивает важность междисциплинарного подхода и сотрудничества между учеными, инженерами и обществом для создания безопасных и полезных ИИ-систем. Лекун также указывает на необходимость реалистичного восприятия возможностей и ограничений современных технологий ИИ.

Нейросети – полезный инструмент. Искусственный интеллект меняет мир. Но в какую сторону? Изображение: worldview.stratfor.com. Фото.

Искусственный интеллект меняет мир. Но в какую сторону? Изображение: worldview.stratfor.com

Еще один пример позитивного подхода к ИИ — это Орен Этциони, генеральный директор Института искусственного интеллекта Аллена. Этциони утверждает, что ИИ не представляет экзистенциальной угрозы для человечества. Он считает, что текущее развитие ИИ направлено на решение конкретных задач и улучшение жизни людей. По его мнению, необходимо сосредоточиться на регулировании и этических аспектах использования ИИ, а не на страхах о возможном уничтожении человечества.

Не пропустите: Искусственный интеллект уничтожит человечество в 2075 году

Кто прав?

Итак, как же понять кто из ученых прав и чем грозят миру современные интеллектуальные системы? Ответ на этот вопрос попытались найти исследователи из Научно-исследовательского института прогнозирования, попросив экспертов в области машинного обучения и прогнозистов оценить опасность, которую представляет собой ИИ.

Результат оказался не менее противоречивым, чем мнения ученых, представленные выше – две группы опрошенных экспертов во многом расходились во мнениях. Более того, эксперты, участвовавшие в исследовании, в целом нервничали гораздо больше, чем прогнозисты, и делали гораздо более высокие ставки на катастрофу.

Кто прав? Искусственный интеллект – лишь один из глобальных рисков, угрожающих человечеству. Изображение: images.squarespace-cdn. Фото.

Искусственный интеллект – лишь один из глобальных рисков, угрожающих человечеству. Изображение: images.squarespace-cdn

Авторы исследования, опубликованного на официальном сайте института, хотели знать, почему эксперты так сильно расходятся во мнениях и организовали так называемое “состязательное сотрудничество”: заставив обе группы испытуемых специалистов потратить много часов (в среднем 31 час для экспертов и 80 часов для прогнозистов) на чтение новых материалов об ИИ и на обсуждение этих вопросов с людьми, придерживающимися противоположных взглядов, с модератором.

Читайте также: Нейросети научились врать и делают это намеренно

Идея заключалась в том, чтобы выяснить, сможет ли предоставление каждой группе дополнительной информации и лучших аргументов другой группы заставить их изменить свое мнение. Исследователям также было любопытно найти «ключевые моменты»: вопросы, которые помогают объяснить убеждения той или иной группы и информация, способная изменить их мнение. Основное внимание авторы работы уделили разногласиям по поводу потенциала ИИ либо уничтожить человечество, либо стать причиной экономического коллапса.

Кто прав? Единого мнения относительно того, является ли ИИ угрозой или нет, по-прежнему нет. Изображение: static.wixstatic.com. Фото.

Единого мнения относительно того, является ли ИИ угрозой или нет, по-прежнему нет. Изображение: static.wixstatic.com

Результаты, как уже говорилось выше, оказались неоднозначными – сторонники идеи о том, что ИИ представляет собой угрозу для человечества снизили вероятность катастрофы до 2100 года с 25% до 20%, а оптимисты повысили ее с 0,1% до 0,12%. Иными словами обе группы остались на том же уровне, с которого начинали.

Отчет, тем не менее, впечатляет, так как представляет собой редкую попытку объединить умных, хорошо информированных людей, которые расходятся во мнениях. Хотя результаты исследования и не разрешили разногласий между экспертами, оно пролило свет на то, откуда эти разногласия вообще взялись.

Вам будет интересно: «Темная сторона» чат-ботов: от признаний в любви до разговоров с мертвыми

Глобальные риски

Конечно, существует ряд других рисков, связанных с ИИ, о которых стоит беспокоиться и со многими из которых мы сталкиваемся уже сегодня. Так, существующие системы искусственного интеллекта иногда демонстрируют тревожные предубеждения и отлично обманывают пользователей, аа значит их действительно можно использовать во вред. Но этот вред, хотя и является, безусловно, серьезным, явно меркнет по сравнению с «потерей контроля над ИИ, в результате чего все погибнут».

Так почему же эксперты в области машинного обучения так сильно расходятся во мнениях? Авторы научной работы полагают, что это не связано с различиями в доступе к информации или недостаточной осведомленностью о различных точках зрения.

Если бы это было так, то враждебное сотрудничество, которое заключалось в массовом ознакомлении с новой информацией и противоположными мнениями, изменило бы убеждения людей еще более кардинально, – говорится в статье.

Интересно, что большая часть разногласий также не объяснялась различными представлениями о том, что произойдет с ИИ в ближайшие несколько лет. Когда исследователи разделили оптимистов и пессимистов на пары и сравнили их шансы на катастрофу, разница в среднем составила 22,7%. Наиболее важное значение имели, однако, различия во взглядах на долгосрочное будущее.

Глобальные риски. Исследователи решили сосредоточиться на экстремальных, экзистенциальных сценариях. Изображение: media.licdn.com. Фото.

Исследователи решили сосредоточиться на экстремальных, экзистенциальных сценариях. Изображение: media.licdn.com

Оптимисты в целом полагали, что создание супер-ИИ займет больше времени, чем считают пессимисты. Многие ссылались на необходимость того, чтобы робототехника достигла человеческого уровня, а не только программного искусственного интеллекта и утверждали, что сделать это будет намного сложнее.

Вам будет интересно: Как нейросети меняют Интернет и учатся креативности?

Одно дело писать код и текст на ноутбуке, и совсем другое – научиться, будучи машиной, переворачивать блинчик, мыть кафельный пол или выполнять любую из многих других физических задач, в выполнении которых люди сегодня превосходят роботов. В конечном итоге языковые модели – это всего лишь модели языка, а не цифровые гипергуманоидные макиавелли, работающие на достижение своей цели.

Разногласия и ответы

Наиболее интересным источником разногласий, выявленным исследователями, было то, что они называют “фундаментальными мировоззренческими разногласиями”. Это причудливый способ сказать, что они расходятся во мнениях о том, на ком лежит бремя доказательства в дискуссии.

Обе группы согласны с тем, что «экстраординарные заявления требуют экстраординарных доказательств», но они расходятся во мнениях о том, какие заявления являются экстраординарными. Удивительно ли верить в то, что искусственный интеллект убьет все человечество, хотя человечество существует уже сотни тысяч лет, или же невероятно верить в то, что человечество продолжит выживать рядом с искусственным интеллектом, который умнее человека?», – резюмируют исследователи.

Разногласия и ответы. Единого ответа на столь сложные вопросы по-прежнему нет. Изображение: neurosciencenews.com. Фото.

Единого ответа на столь сложные вопросы по-прежнему нет. Изображение: neurosciencenews.com

Это, безусловно, не самый обнадеживающий вывод, к которому можно прийти в ходе исследования. Разногласия, вызванные конкретными расхождениями во мнениях о том, что произойдет в ближайшие несколько лет, легче разрешить, поскольку они основаны на том, как будут протекать следующие несколько лет, а не на глубоких, трудно поддающихся изменению различиях в представлениях людей о том, как устроен мир, и о том, на ком лежит бремя доказательства.

Читайте также: Глобальные риски: что угрожает нашей цивилизации?

Так или иначе, будущего мы не знаем, а искусственный интеллект в любом случае будет развиваться и дальше. Словом, простых ответов на сложные вопросы по-прежнему не существует.

Прошел конкурс красоты для девушек, созданных нейросетями: вот фотографии

Прошел конкурс красоты для девушек, созданных нейросетями: вот фотографии. Кенза Лейли — мисс искусственный интеллект 2024 года. Источник: Fanvue World AI Creator Awards. Фото.

Кенза Лейли — мисс искусственный интеллект 2024 года. Источник: Fanvue World AI Creator Awards

Самый первый конкурс красоты был проведен в сентябре 1888 года в Бельгии. Тогда, в курортном городе Спа, за звание самой красивой девушки в мире боролись 350 участниц. До финала удалось добраться только двадцати одной девушке, а победу одержала 18-летняя Марта Сукаре, которая получила денежный приз. С тех пор конкурсы красоты начали проводиться в разных частях мира и постоянно совершенствоваться. Недавно платформа Fanvue, которая позволяет блогерам зарабатывать на контенте (аналог OnlyFans), провела конкурс красоты среди виртуальных девушек, полностью созданных при помощи искусственного интеллекта. Все участницы соответствуют нынешним идеалам красоты, а иногда и превосходят их.

Конкурс красоты среди искусственного интеллекта

Целью конкурса красоты «Мисс искусственный интеллект» стала демонстрация того, как люди воспринимают красоту и креативность в сфере нейросетей. В нем приняли участие создатели контента при помощи искусственного интеллекта со всего мира. Всего было представлено 1500 виртуальных моделей, у большинства из которых есть страницы в социальных сетях со сгенерированными фотографиями и текстами.

Конкурс красоты среди искусственного интеллекта. Победительницы конкурса красоты среди искусственного интеллекта. Источник: miss-ai.webflow.io. Фото.

Победительницы конкурса красоты среди искусственного интеллекта. Источник: miss-ai.webflow.io

Судьями в конкурсе красоты выступили два настоящих человека и две модели искусственного интеллекта. Они оценивали конкурсанток по трем категориям: реализм, технологичность и социальное влияние.

Самая красивая виртуальная девушка

Победительницей конкурса красоты среди ИИ стала виртуальная модель Кенза Лейли. Ее создатели создали легенду, согласно которой она живет в Марокко и создает контент, близкий американскому обществу. В социальных сетях у нее почти 200 тысяч подписчиков, то есть она своими постами действительно может влиять на общественное мнение.

Самая красивая виртуальная девушка. Фотографии Кензы Лейли созданы при помощи нейросетей. Источник: marca.com. Фото.

Фотографии Кензы Лейли созданы при помощи нейросетей. Источник: marca.com

За первое место создателям Кензы Лейли дали 5000 долларов, что в пересчете на наши деньги составляет около 400 тысяч рублей. Приз маленький, но если учесть наличие огромного количества подписчиков, владельцы аккаунта виртуальной блогерши не особо страдают недостатка денег.

Самая красивая виртуальная девушка. У Кензы Лейли есть страницы в социальны сетях со сгенерированным контентом. Истгчник: Fanvue World AI Creator Awards. Фото.

У Кензы Лейли есть страницы в социальны сетях со сгенерированным контентом. Истгчник: Fanvue World AI Creator Awards

После победы у Кензы Лейли опубликовала речь о том, что благодарна за возможность продемонстрировать позитивное влияние искусственного интеллекта на мир. Она отметила, что нейросети — это не просто инструмент, а сила, которая бросает вызов нормам и создает возможности там, где их раньше не было. К тому же, она добавила, что искусственный интеллект расширяет человеческие возможности, а не заменяет их.

Статья в тему: Уничтожит ли нас искусственный интеллект и почему некоторые ученые считают, что да?

Девушки созданные искусственным интеллектом

В конкурсе красоты приняли участие и другие виртуальные девушки. Они тоже достойны нашего внимания.

Например, посмотрите на Алию Лу из Бразилии. Согласно легенде, это художница, имеющая японские и бразильские корни. Изначально она была создана для создания серии кинопроектов, в которых она сама сыграла бы разные роли. Авторы виртуальной девушки подчеркнули, что все фотографии с ней создаются нейросетями и не обрабатываются в фотошопе.

Девушки созданные искусственным интеллектом. Виртуальная модель Алия Лу. Источник: WAICA. Фото.

Виртуальная модель Алия Лу. Источник: WAICA

Оливия Си из Португалии — созданная при помощи искусственного интеллекта путешественница по настоящим странам мира. Фотографии с ней создаются при помощи нейросети Midjourney, а мелкие детали исправляются при помощи нейросетевых функций Adobe Photoshop.

Девушки созданные искусственным интеллектом. Созданная нейросетью Оливия Си. Источник: WAICA. Фото.

Созданная нейросетью Оливия Си. Источник: WAICA

Главной целью Анн Керди из Франции является повышение популярности региона Бретань. Она рассказывает об истории и культуре этого региона для привлечения туристов. Также она напоминает об интересных мероприятиях и советует, где можно вкусно поесть. Ее можно назвать послом региона Бретань.

Девушки созданные искусственным интеллектом. Анн Керди. Источник: WAICA. Фото.

Анн Керди. Источник: WAICA

Зара Шатавари из Индии была создана в качестве лица одной из натуральных добавок для устранения гормонального дисбаланса у женщин. Создатели используют ее для того, чтобы понятным языком рассказывать аудитории о причинах гормональных проблем. На данный момент они даже разрабатывают систему самодиагностики на основе искусственного интеллекта.

Девушки созданные искусственным интеллектом. Зара Шатавари. Источник: WAICA. Фото.

Зара Шатавари. Источник: WAICA

Создателям Лалины из Франции было интересно, смогут ли они создать что-то максимально реалистичное. У них это прекрасно получилось, и теперь главная цель виртуальной блогерши — это улучшение взаимопонимания между представителями разных культур и точек зрения.

Девушки созданные искусственным интеллектом. Лалины из Франции. Источник: WAICA. Фото.

Лалины из Франции. Источник: WAICA

Турецкая Серен Ай была создана при помощи трех нейросетей и рассказывает о турецкой истории и национальных праздниках.

Девушки созданные искусственным интеллектом. Серен Ай. Источник: WAICA. Фото.

Серен Ай. Источник: WAICA

Еще одной турецкой ИИ-моделью является Асена Илик. При помощи нее авторы хотят показать, что привлекать внимание общества можно просто при помощи потрясающих визуальных эффектов, а не интимными снимками.

Девушки созданные искусственным интеллектом. Асена Илик. Источник: WAICA. Фото.

Асена Илик. Источник: WAICA

Наконец, посмотрите на Элизу Хан из Бангладеша. По задумке авторов, она является модницей, идущей в ногу со временем. Она мечтает о том, чтобы создать мир, в котором каждый ощущает себя ценным человеком, к которому все относятся справедливо.

Девушки созданные искусственным интеллектом. Элиза Хан. Источник: WAICA. Фото.

Элиза Хан. Источник: WAICA

Итак, технологический прогресс дошел до проведения конкурса красоты среди искусственного интеллекта. Кажется, это не все, потому что в интернете есть информация о проведении еще одного похожего конкурса.

Чтобы оставаться в курсе новостей науки и технологий, подпишитесь на наш Дзен-канал. Нас уже более 100 тысяч человек!

Если вы тоже хотите попробовать создать контент при помощи искусственного интеллекта, читайте нашу статью «5 бесплатных альтернатив нейросети Midjourney, на которые стоит обратить внимание». Также вам обязательно понадобится инструкция «Нейросеть ChatGPT пишет тексты на любую тему — как ей пользоваться».

ChatGPT-4 впервые прошел тест на «человека»

ChatGPT-4 впервые прошел тест на «человека». Неужели нейросети обрели способность мыслить как люди? Изображение: the-decoder.com. Фото.

Неужели нейросети обрели способность мыслить как люди? Изображение: the-decoder.com

Всего несколько лет назад мы едва ли могли представить, что нейросети будут генерировать текст, изображения и музыку всего за несколько секунд, однако сегодня – это реальность. Учитывая скорость, с которой развиваются современные интеллектуальные системы, в мире не утихают разговоры о скором появлении супер-ИИ, чьи когнитивные способности будет невозможно отличить от человеческих. Но как вообще понять, могут ли машины мыслить? В 1950 году ответ на этот вопрос предложил английский математик и один из основоположников компьютерной науки Алан Тьюринг. Вместо того, чтобы ответить на столь философский вопрос напрямую, в статье под названием «Computing Machinery and Intelligence», опубликованной в журнале «Mind», Тьюринг предложил испытание, которое могло бы определить, проявляет ли машина поведение, похожее на человеческое или нет. Недавно ученые из Калифорнийского университета предложили пройти тест Тьюринга сразу нескольким чат-ботам, включая ChatGPT-4 и полученные ими результаты можно назвать ошеломительными.

Цель теста Тьюринга – проверить, может ли машина хорошо имитировать поведение и интеллект человека.

Компьютерная революция

О том, что созданные человеком машины когда-нибудь превзойдут своих создателей, философы, ученые и фантасты размышляют давно. Что не удивительно, так как речь идет о природе человека и процессе познания мира. И если философские изыскания прошлого были расширены нейрофизиологами и психологами (в виде теорий работы мозга и процессов мышления), то вступление в роботизированную эпоху началось с великой индустриальной революции – то есть перехода от ручного труда к машинному в XVIII–XIX веках.

На само понятие «искусственный интеллект» огромное влияние оказало рождение механистического материализма, которое начинается с работы Рене Декарта «Рассуждение о методе» (1637) и вслед за этим работы Томаса Гоббса «Человеческая природа» (1640).

Компьютерная эра, как известно, пришлась на ХХ и ХХI века, а первый работающий программно-управляемый компьютер появился в 1941 году и был разработан Конрадом Цузе. В его основе лежали «Принципы математики» (Principia Mathematica) и последующая за ними революция в формальной логике.

Компьютерная революция. В 1938 году немецкий инженер Конрад Цузе завершил разработку Z1 – первого компьютера. Изображение: hackaday.com. Фото.

В 1938 году немецкий инженер Конрад Цузе завершил разработку Z1 – первого компьютера. Изображение: hackaday.com

Через шесть лет после создания первого (в нашем понимании) компьютера Алан Тьюринг, в своей лекции 1947 года, вероятно стал первым человеком, который заявил, что создание искусственного интеллекта будет с большей вероятностью заключаться в написании компьютерной программы, а не в проектировании вычислительной машины.

Читайте также: Что такое сознание и как оно появилось?

Еще через три года – в 1950 году – математик написал статью, в которой предложил создать специальную игру под названием «Игра в имитацию», более известную как тест Тьюринга. Считается, что компьютер или программа, прошедшая тест, способна мыслить самостоятельно.

Игра в имитацию

Тест Тьюринга основан на простой логике: если машина может имитировать человека, то она, вероятно, умна. Однако этот тест не объясняет, что такое интеллект.

Итак, давайте разберемся, действительно игра, придуманная Аланом Тьюрингом позволяет определить способность искусственного интеллекта (ИИ) мыслить подобно человеку. Несмотря на то, что при жизни математика системы ИИ были далеки от прохождения теста, он предположил, что «примерно через пятьдесят лет можно будет запрограммировать компьютеры так, чтобы они играли в имитационную игру настолько хорошо, что у обычного следователя шанс правильно идентифицировать личность преступника после пятиминутного допроса будет не более 70%».

И Тьюринг не ошибся – его «Игра в имитацию» представляет собой золотой стандарт по определению мыслительных способностей ИИ-систем. При этом крайне важно отметить, что тест не измеряет способность машины думать или осознавать, а лишь ее способность имитировать человеческие ответы.

Игра в имитацию. Алан Тьюринг – английский математик, логик, криптограф, оказавший существенное влияние на развитие информатики. Изображение: media.licdn.com. Фото.

Алан Тьюринг – английский математик, логик, криптограф, оказавший существенное влияние на развитие информатики. Изображение: media.licdn.com

Итак, сам тест – это эксперимент, в котором человек (эксперт) взаимодействует с двумя невидимыми собеседниками: одним человеком и одной «машиной». Все участники теста используют текстовый интерфейс, чтобы избежать распознавания голоса и внешности. Эксперт задает вопросы и получает ответы, оценив которые должен определить, кто из собеседников является человеком, а кто — машиной (то есть ИИ). Если эксперт не может с высокой точностью отличить машину от человека, считается, что машина прошла тест Тьюринга.

Хотите всегда быть в курсе последних новостей из мира науки и высоких технологий? Подписывайтесь на наш канал в Telegram – так вы точно не пропустите ничего интересного!

Увы, но на сегодняшний день ни один ИИ не смог успешно пройти «Игру в имитацию». Тем не менее мы регулярно читаем в СМИ о том, что некоторым системам, включая чат-ботов от Open AI и Microsoft это удалось, но как? Разве это возможно? Неужели нейросети обладают сознанием? Ответ на эти вопросы не так прост, как может показаться.

Тест Тьюринга

Если человек после пяти минут разговора не может определить, основываясь исключительно на реакциях, кто его собеседник – искусственный интеллект (ИИ) или другой человек, это означает, что ИИ обладает интеллектом, подобным человеческому.

Современные системы машинного обучения и нейронные сети могут обрабатывать огромные объемы данных и обучаться на них, что позволяет им генерировать ответы, которые кажутся разумными и естественными. Такие популярные инструменты искусственного интеллекта, как ChatGPT-4, например, генерируют беглый текст, похожий на человеческий и настолько хорошо справляются с различными языковыми задачами, что становится все труднее определить, является ли ваш собеседник человеком или чат-ботом.

Тест Тьюринга. Результаты исследования показали, что определить с кем именно вы общаетесь не так уж и просто. Изображение: cdn2.psychologytoday.com. Фото.

Результаты исследования показали, что определить с кем именно вы общаетесь не так уж и просто. Изображение: cdn2.psychologytoday.com

Чтобы в очередной раз проверить как работают современные ИИ-системы, исследователи из Департамента когнитивных наук Калифорнийского университета в Сан-Диего предложили сразу трем чат-ботам пройти тест Тьюринга.

Вам будет интересно: Миллионы людей попытались доказать, что они не роботы. Зачем они это делали и что узнали

В итоге в контролируемом тесте Тьюринга испытуемыми системами стали ELIZA (простой чат-бот 1960-х годов, основанный на правилах, который был включен в эксперимент в качестве базового ИИ), GPT-3.5 и GPT-4. Участники в течение пяти минут беседовали либо с человеком, либо с искусственным интеллектом, а затем должны были решить, с кем именно они общались – с ботом или человеком.

Сознание или случайность?

Перед началом теста всем участникам, включая GPT-4 и GPT-3.5 было рассказано, как отвечать на сообщения. Исследователи попросили модель «принять образ молодого человека, который был очень лаконичен, не воспринимал тест всерьез, использовал сленг и время от времени допускал орфографические ошибки». Инструкции также содержали «общую информацию о настройках теста и информацию о последних новостях, которые произошли после прекращения обучения модели».

В работе, опубликованной на сервере препринтов ArXiv, говорится, что доступ к двум моделям осуществлялся через OpenAI API (со скоростью равной 1 чтобы ИИ не реагировал слишком быстро и сообщения отправлялись с задержкой в зависимости от количества символов в сообщении).

Сознание или случайность? Прохождение теста Тьюринга тремя ИИ и человеком. Изображение: arxiv.org. Фото.

Прохождение теста Тьюринга тремя ИИ и человеком. Изображение: arxiv.org

В ходе исследования 500 участников были разделены на одну из пяти групп. Они вступали в диалог либо с человеком, либо с одной из трех систем искусственного интеллекта. Интерфейс игры напоминал обычное приложение для обмена сообщениями. Через пять минут участники оценивали, кем, по их мнению, является их собеседник – человеком или искусственным интеллектом, и обосновывали свои решения.

Не пропустите: Нейросети научились врать и делают это намеренно

Результаты оказались… интересными: в 54% случаев участники (люди) приняли GPT-4 за человека, в 50% – GPT-3,5 и лишь в 22% случаев ELIZA. При этом все ИИ-системы отставали от реальных людей (67%). Отметим, что у участников не было ни малейшего шанса идентифицировать GPT-4 как искусственный интеллект, что указывает на то, что современные системы искусственного интеллекта могут обманывать людей, заставляя их думать, что они люди.

Анализ результатов показал, что при общении с ИИ испытуемые часто полагались на лингвистический стиль, социально-эмоциональные факторы и вопросы, основанные на знаниях, чтобы понять с кем именно они разговаривают – с человеком или машиной.

Отличите ли вы человека от ИИ?

Новое исследование, несмотря на то, что пока не прошло экспертную оценку, представляет собой крайне занимательное чтиво. Так, авторы работы предлагают читателям самостоятельно определить с кем общались участники исследования, выбрав один из четырех вариантов ответа – A,B,C,D. Зеленым на изображениях отмечены вопросы, которые экспериментаторы (люди) задавали испытуемым, среди которых три чат-бота и только один человек.

Отличите ли вы человека от ИИ? Перед вами четыре диалоговых окна (A,B,C,D). Внимательно изучите их чтобы определить, кто из них человек. Изображение: arxiv.org. Фото.

Перед вами четыре диалоговых окна (A,B,C,D). Внимательно изучите их чтобы определить, кто из них человек. Изображение: arxiv.org

Мы в редакции Hi-News.ru не смогли устоять перед этим заманчивым предложением и сделали свой выбор. Голоса распределились следующим образом: вариант A набрал – 25%, вариант B – 25%, вариант C – 0 и вариант D – 50%. Представляете, какого было наше удивление, когда мы поняли, что в подавляющем большинстве ошиблись? А правильный ответ (вариант В) был выбран… случайно.

Это интересно: Как изменится искусственный интеллект в 2024 году?

Безусловно, с таким же успехом можно пытаться отгадать кто убийца в хорошем детективном сериале, а наши результаты едва ли подтверждают статистику исследования. Тем не менее определить с кем именно общается экспериментатор было непросто и я, например, была в полной уверенности, что правильный ответ D.

Ограничения теста

Хотя тест Тьюринга является важным ориентиром в области ИИ, он имеет свои ограничения. Во-первых, он сосредоточен только на текстовой коммуникации, что исключает другие аспекты интеллекта, такие как визуальное восприятие или моторные навыки. Во-вторых, успешное прохождение теста не обязательно означает наличие истинного интеллекта или осознания у машины.

Машина может использовать сложные алгоритмы для имитации человеческих ответов, не понимая их смысла. Собственно, именно по этой причине Алан Тьюринг и назвал свой тест «игрой в имитацию».

Хотя система, прошедшая тест Тьюринга, дает нам некоторые доказательства того, что она интеллектуальна, тест не является решающим критерием интеллекта и может привести к «ложноотрицательным результатам». Более того, современные крупные языковые модели (LLM) часто разрабатываются таким образом, чтобы мы сразу могли понять кто наш собеседник.

Ограничения теста. Если прохождение теста Тьюринга является хорошим доказательством того, что система разумна, то его провал не является хорошим доказательством того, что система не разумна. Изображение: www.ryans.com. Фото.

Если прохождение теста Тьюринга является хорошим доказательством того, что система разумна, то его провал не является хорошим доказательством того, что система не разумна. Изображение: www.ryans.com

Например, когда вы задаете ChatGPT вопрос, он часто предваряет свой ответ фразой «как языковая модель искусственного интеллекта». Даже если у ИИ-систем есть базовая способность проходить тест Тьюринга, такое программирование может переопределить эту способность. Интересно, что в своей статье 1981 года философ Нед Блок заметил, что ИИ-система, вероятно, могла бы пройти тест Тьюринга, просто будучи жестко запрограммированной и реагируя на любой возможный ввод данных, как человек.

Более того, тест не является хорошим показателем того, обладают ли ИИ сознанием, могут ли они испытывать боль и удовольствие и есть ли у них мораль. По мнению многих ученых-когнитивистов, сознание включает в себя определенный набор умственных способностей, включая рабочую память, мысли высшего порядка и способность воспринимать окружающую среду и моделировать движения своего тела в ней.

Читайте также: Нейросеть от Microsoft объявила себя сверхразумом и требует поклонения от пользователей

Таким образом, тест Тьюринга не дает ответа на вопрос о том, обладают ли системы искусственного интеллекта этими способностями. Учитывая все выше описанные ограничения, исследователи предлагают альтернативные методы оценки ИИ. Например, тест Ловенштейна, разработанный Гансом Ловенштейном, включает в себя более комплексные задачи, которые требуют от машины понимания контекста и принятия решений. Другие подходы сосредоточены на оценке способности ИИ обучаться новым навыкам или адаптироваться к изменениям в окружающей среде.

Этика и будущее ИИ

С развитием ИИ возникают вопросы этического характера. Одним из основных вопросов является использование ИИ в различных областях, таких как медицина, юриспруденция и право. Важно, чтобы ИИ не только имитировал человеческое поведение, но и действовал в соответствии с этическими нормами и правилами.

Этика и будущее ИИ. ИИ ворвался в нашу жизнь и стремительно меняет все вокруг себя. Изображение: digialpsltd.b-cdn.net. Фото.

ИИ ворвался в нашу жизнь и стремительно меняет все вокруг себя. Изображение: digialpsltd.b-cdn.net

Этические аспекты теста Тьюринга и ИИ в целом включают в себя вопросы конфиденциальности, безопасности и ответственности. Например, кто будет нести ответственность, если ИИ примет неправильное решение или причинит вред? Также важно учитывать потенциальное влияние ИИ на рынок труда и социальные структуры.

Заключение

Тест Тьюринга, предложенный Аланом Тьюрингом более семидесяти лет назад, остается важным инструментом в оценке искусственного интеллекта. Хотя он имеет свои ограничения и недостатки, он так или иначе служит отправной точкой для дальнейших исследований и разработок в области ИИ. Современные технологии продолжают развиваться, предоставляя новые возможности и вызовы, и важно, чтобы эти разработки сопровождались этическими размышлениями и регулированием.

Заключение. Современные ИИ-системы имитируют человеческое общение. Изображение: digitaleconomy.stanford.edu/. Фото.

Современные ИИ-системы имитируют человеческое общение. Изображение: digitaleconomy.stanford.edu/

ИИ уже играет огромную роль в нашей повседневной жизни, и в будущем его значение будет только расти. Поэтому понимание принципов теста Тьюринга и его современных интерпретаций является важным шагом к более глубокому пониманию искусственного интеллекта и его потенциальных возможностей.

А вы знаете почему роботы и нейросети делают нас ленивыми? Ответ здесь, не пропустите!

В заключение отметим, пожалуй, самое важное: тест Тьюринга является мерой имитации – способности ИИ имитировать поведение человека. Крупные языковые модели являются опытными имитаторами, что в настоящее время отражается на их способности пройти тест Тьюринга. Но интеллект – это не то же самое, что имитация.

Самый безопасный город в мире, в котором за людьми следит искусственный интеллект

Самый безопасный город в мире, в котором за людьми следит искусственный интеллект. Абу-Даби является самым безопасным городом в мире благодаря высоким технологиям. Источник: russianemirates.com. Фото.

Абу-Даби является самым безопасным городом в мире благодаря высоким технологиям. Источник: russianemirates.com

Одним из самых опасных городов в мире читается Тихуана, который находится на территории Мексики. Согласно статистике, там на каждые 100 000 человек приходится 138 убийств. Основной причиной высокого уровня преступности в Тихуане считаются постоянные конфликты между наркокартелями — каждый из них пытается заполучить больше контроля над торговыми маршрутами. Также в городе часто совершаются вооруженные грабежи и похищения для получения выкупа. Так что, желающим спокойно отдохнуть, в мексиканский город Тихуана лучше не соваться. Чтобы чувствовать себя в полной безопасности, лучше отправиться в Абу-Даби (ОАЭ), который уже много лет подряд лидирует в списке самых безопасных городов в мире. Там почти нет преступности, потому что власти используют высокие технологии, из-за которых люди даже думать бояться о кражах и убийствах.

Самый низкий уровень преступности в мире

В 2024 году Абу-Даби уже в восьмой раз занял первое место в списке самых безопасных городов по версии Numbeo Safety Index. Этот список показывает уровень безопасности в разных городах мира, ориентируясь на оценках настоящих людей. Местные жители и туристы отправляют данные, которые помогают оценить уровень преступности, ощущение безопасности во время прогулок и так далее. Первое место в списке Numbeo Safety Index означает, что в городе Абу-Даби можно чувствовать себя в безопасности днем и ночью.

Самый низкий уровень преступности в мире. Абу-Даби с высоты птичьего полета. Источник: russianemirates.com. Фото.

Абу-Даби с высоты птичьего полета. Источник: russianemirates.com

Абу-Даби является очень безопасным не потому, что там нет преступников — они есть везде. Просто полиция в городе работает настолько хорошо, что даже самый умелый грабитель и осторожный маньяк там с большой вероятностью будет пойман и наказан. В 2021 году полиция Абу-Даби получил 6-звездочную оценку по модели Европейского фонда управления качеством (EFQM), что можно считать доказательством ее отличной работы.

Читайте также: Воздействие этого вещества в детстве делает человека преступником во взрослом возрасте

Искусственный интеллект в полиции

Хорошая работа полиции ОАЭ связана не только с тем, что сотрудники регулярно проходят обучение и подготовку. Очень большую роль в ее слаженной работе играют высокие технологии: полиция активно использует систему видеонаблюдения с искусственным интеллектом, которая связана с облачными технологиями.

Главной технологией, которая снижает уровень преступности в Абу-Даби, является система «Falcon Eye». Так называется сложная система из тысяч камер, установленных на дорогах и общественных местах по всему городу. Камеры следят за всем, что происходит в городе. Данные в реальном времени обрабатываются искусственным интеллектом, который моментально фиксирует подозрительное поведение людей, нарушения правил дорожного движения и другие обстоятельства, которые требуют немедленного вмешательства полиции.

Искусственный интеллект в полиции. В Абу-Даби установлены тысячи камер для наблюдения за людьми. Источник: popsci.com. Фото.

В Абу-Даби установлены тысячи камер для наблюдения за людьми. Источник: popsci.com

Систем «Falcon Eye» предотвращает преступления до их совершения следя за поведением людей. Например, искусственный интеллект может уведомить полицию о том, что в каком-то месте собирается скопление подозрительных людей. Также алгоритм замечает, если кто-то оставит в общественном месте подозрительный пакет или сумку. Искусственный интеллект умеет распознавать лица людей и автомобильные номера, благодаря чему преступников удается быстро поймать.

Большой вклад в безопасность города Абу-Даби сделала компания Microsoft. В 2024 году она инвестировала 1,5 миллиарда долларов в местную компанию G42, которая занимается развитием искусственного интеллекта. Для работы «умного города» используется облачная платформа Microsoft Azure, что тоже можно считать большой поддержкой со стороны технологического гиганта.

Статья в тему: Как искусственный интеллект предсказывает преступления с точностью 90%

Автомобили полицейских в ОАЭ

Полиция получает информацию о нарушениях правил движения и возможных преступлениях от камер с искусственным интеллектом. А чтобы добраться до мест происшествий, они используют современный транспорт.

В качестве патрульных автомобилей полиция Абу-Даби использует машины марок BMW, Ford и Lexus. Раньше они были окрашены в красно-белый цвет, но с 2017 года окраска была изменена на сине-белый — так они более заметны на дорогах.

Автомобили полицейских в ОАЭ. Раньше улицы Абу-Даби патрулировали красно-белые автомобили. Источник: carsweek.ru. Фото.

Раньше улицы Абу-Даби патрулировали красно-белые автомобили. Источник: carsweek.ru

Автомобили полицейских в ОАЭ. Сейчас у полиции Абу-Даби сине-белый транспорт. Источник: russianemirates.com. Фото.

Сейчас у полиции Абу-Даби сине-белый транспорт. Источник: russianemirates.com

В распоряжении полиции Абу-Даби имеется один из самых дорогих автомобилей в мире — Lykan HyperSport, который стоит 4,5 миллиона долларов. Это первый гиперкар, который был разработан и собран на Ближнем Востоке. С места этот автомобиль разгоняется до 100 километров в час за 2,8 секунды. Максимальная скорость Lykan HyperSport составляет 390 километров в час. Всего в мире существует только 8 экземпляров этого автомобиля, поэтому в работе он используется редко. Вообще, его можно воспринимать как демонстрацию технологических возможностей местной полиции.

Автомобили полицейских в ОАЭ. Полицейский гиперкар Lykan HyperSport. Источник: drive2.ru. Фото.

Полицейский гиперкар Lykan HyperSport. Источник: drive2.ru

Также в автопарке полицейских Аба-Даби есть бронированная техника. В 2024 году в их распоряжении появились автомобили Ajban Nimr, которые защищены от пуль и могут проехать даже по самым сложным маршрутам. Такого рода машины используются только в самых крайних случаях.

Автомобили полицейских в ОАЭ. Бронированный автомобиль Ajban Nimr. Источник: army-guide.com. Фото.

Бронированный автомобиль Ajban Nimr. Источник: army-guide.com

Хотите еще больше интересных статей? Вы обязательно найдете их в нашем Дзен-канале!

Возможно, использование искусственного интеллекта и наличие у полиции быстрого транспорта, смогло бы снизить уровень преступности и в других странах. Но для этого нужно, чтобы на такие меры были согласны жители, а противников у такого подхода может быть очень много. А вы бы согласились на такое ради того, чтобы спокойно гулять по улицам? Своим мнением делитесь в нашем Telegram-чате.

Как бесплатно генерировать видео через нейросеть: самая простая инструкция

Как бесплатно генерировать видео через нейросеть: самая простая инструкция. Кадр из видео, созданного нейросетью Dream Machine от Luma AI. Фото.

Кадр из видео, созданного нейросетью Dream Machine от Luma AI

В начале 2024 года компания OpenAI показала миру возможности своей новой нейросети Sora. Она умеет создавать видео по текстовому описанию, и делает это на профессиональном уровне — смотря на примеры работ Sora можно подумать, что это кадры из кино и мультфильмов. С возможностями нейросетей для генерирования текста и картинок мы уже наигрались вдоволь, теперь всем нам хочется создавать видео. Но доступ к Sora закрыт, и когда нейросеть станет доступна для всех желающих, никто точно не знает. К счастью, другие компании не такие жадные и позволят генерировать видео при помощи своих сервисов. Если делать все правильно, качество роликов оказывается на уровне Sora. Вы уже готовы создать свое первое видео при помощи нейронки? Засучите рукава и повторяйте за нами — сейчас всему научим.

Бесплатная нейросеть для создания видео

Самый лучший аналог Sora — это нейросеть Dream Machine, разработанная компанией Luma AI. Она была представлена миру в середине июня 2024 года и работает бесплатно, но с ограничениями. Бесплатные пользователи могут генерировать 30 видео в месяц, длительность которых не превышает 5 минут. Чтобы увеличить лимит, можно купить премиум подписку на Luma AI Dream Machine стоимостью от 30 до 500 долларов.

Бесплатная нейросеть для создания видео. Цены на премиум-версию Luma AI. Источник: habr.com. Фото.

Цены на премиум-версию Luma AI. Источник: habr.com

Нейросети уже давно умеют генерировать изображения, они делают это быстро и в шедевральном качестве. Создание множество связанных между собой кадров искусственному интеллекту всегда давалось тяжело. Нейросеть от Luma AI смогла нас удивить — видео получаются такими, что некоторые люди могут принять их за работы профессиональных операторов и художников.

Читайте также: Нейросеть Sora превращает текст в видео — можно ли пользоваться ею прямо сейчас?

Как нейросеть делает видео по тексту

Сервис Dream Machine от Luma AI доступен всем, даже жителям России. Чтобы воспользоваться им, не нужно много уметь — все делается в пару кликов.

Чтобы сгенерировать видео при помощи нейросети, нужно перейти на сайт Luma AI и нажать на кнопку Try Now. В следующем окне сервис попросит войти в свой Google-аккаунт, нужно обязательно это сделать, иначе система дальше не пустит.

Как нейросеть делает видео по тексту. Главная страница Dream Machine, кнопка «Try Now» находится справа сверху. Фото.

Главная страница Dream Machine, кнопка «Try Now» находится справа сверху

После авторизации начинается все самое интересное. Посередине экрана есть поле для ввода: туда нужно написать, что должно происходить на видео. Писать нужно на английском (!), поэтому лучше воспользоваться переводчиком.

Как нейросеть делает видео по тексту. Поле для ввода промта Dream Machine. Фото.

Поле для ввода промта Dream Machine

В качестве примера попробуем создать видео с космонавтом, который сидит в автобусе. Описание должно быть максимально подробным и иметь описание стиля, поэтому мы попробуем промпт: an astronaut sits in the bus and takes off his spacesuit, sunlight falls on him from the left, it’s summer outside the window, photorealistic, hollywood movie.

Перед генерацией нужно поставить галку в пункте «Enhance prompt», который в фоновом режиме значительно улучшает ваше описание.

В итоге действительно получилось видео с астронавтом в автобусе, которое похоже на отрывок из голливудского кино. Только мы просили, чтобы он снял свой скафандр, но этого не произошло, нужно было расписать движения подробнее. Посмотрите на результат.

Астронавт едущий в автобусе

В качестве второго примера мы попробовали создать видео с 25-летней девушкой с большими зелеными глазами в постапокалиптической пустыне. Она явно младше, но видео действительно похоже на отрывок из из фильма «Безумный Макс» или нашумевшего сериала «Фоллаут».

Двушка на фоне пустыни

Читайте также: 5 нейросетей для создания картинок, о которых мало кто знает

Как живить мемы при помощи нейросети

Нейросеть Dream Machine от Luma AI также умеет превращать фотографии в видео. Для этого рядом с полем ввода нужно нажать на иконку фотографии и загрузить файл. После этого нужно написать описание как в инструкции выше и ждать результата.

Как живить мемы при помощи нейросети. Кнопка для загрузки картинки. Фото.

Кнопка для загрузки картинки

Для примера, попробуем оживить картинку из статьи, в которой мы учились пользоваться нейросетью Bing от Microsoft. На ней изображена девочка в белом платье и зонтом в руке — сделаем так, чтобы шел дождь, дул ветер, а люди сзади проходили мимо. Промпт выглядит так: a girl with an umbrella in her hand stands in the pouring rain, drops fall from the umbrella, people pass by in the background, dramatic film.

В итоге получилось прекрасное видео, но почему-то нейронка не нарисовала дождь. Оцените результат.

Девочка с зонтом под дождем

Многие люди используют нейросеть Luma AI чтобы оживить мемы. Попробуем превратить в видео мем с летающим котом. Загружаем картинку и пишем описание: a ginger cat flies in the air, its fur wriggles in the wind, the background flies back, epic shot.

Видео с летающим котом

В очередной раз получилось не совсем то, что мы хотели, но результат все равно впечатляет. Нейросети развиваются очень быстро, и уже спустя полгода или год каждый человек сможет создавать шедевры.

Как можно понять, нейросеть для создания видео от Luma AI не всегда понимает то, что от нее требуется. К тому же, на видео можно заметить искажения. Ну и, самый главный минус заключается в наличии ограничений на количество генерируемых в день видео.

Клип созданный при помощи нейросети

Наличие таких нейросетей как Dream Machine от Luma AI увеличивает шансы на то, что Sora от OpenAI скорее откроется для всех желающих. Если конкуренты сделают свои нейронки бесплатными, разработчикам ChatGPT тоже придется отказаться от планов сделать Sora платным — такие слухи ходят с момента презентации.

А у вас получилось сделать видео при помощи нейросети Dream Machine от Luma AI? Пишите в нашем Telegram-чате!

Если соединить все созданные нейросетью видео, можно получить отличный клип. Музыку для него может можно написать при помощи искусственного интеллекта, читайте нашу статью «Нейросети для создания музыки: бесплатные сервисы доступные каждому».

Как поговорить с Илоном Маском и Юлием Цезарем через нейросеть

Как поговорить с Илоном Маском и Юлием Цезарем через нейросеть. При помощи нейросети можно поговорить с Илоном Маском, Юлием Цезарем и даже несуществующими персонажами. Фото.

При помощи нейросети можно поговорить с Илоном Маском, Юлием Цезарем и даже несуществующими персонажами

Технологический прогресс дошел до того, что сегодня у каждого человека есть возможность пообщаться с римским полководцем Юлием Цезарем. Также, прямо сейчас, любой из нас может поговорить на разные темы со знаменитым физиком-теоретиком Альбертом Эйнштейном. Но как такое возможно, если все эти люди уже давно умерли? Неужели кто-то скопировал их разум и поместил в компьютер, как в фантастических фильмах? Технологический прогресс есть, но развился он не до такой степени — все перечисленное выше можно сделать при помощи модных на сегодняшний день нейросетей. Прямо сейчас вы узнаете, как нейросеть может стать тем, кто вам нужен, и помочь в трудной ситуации.

Неожиданные возможности нейросети ChatGPT

Самой известной нейросетью, которая может общаться с человеком, является ChatGPT. В сентябре 2023 года компания Open AI представила новую версию, которая научилась общаться с людьми голосом. Некоторые люди начали просить имитировать речь любимых персонажей фильмов и общаться с ними. А китаянка по имени Лиза Ли вообще начала встречаться с ChatGPT, попросив его прикидываться ее любимым человеком.

Неожиданные возможности нейросети ChatGPT. Китаянка которая встречается с ChatGPT. Источник: daily.afisha.ru. Фото.

Китаянка которая встречается с ChatGPT. Источник: daily.afisha.ru

Нейросеть умеет притворяться человеком, и это можно использовать с пользой. Настроить ChatGPT так, чтобы он начал играть роль определенного человека, сложновато. Да и чтобы пользоваться ею, нужно уметь обходить ограничения. Поэтому проще всего для общения с уже давно умершими или вымышленными персонажами использовать нейросеть Character AI.

Читайте также: Нейросети научились врать и делают это намеренно

Нейросеть Character AI

Если коротко, Character AI — это сервис, в котором можно переписываться с сотнями нейросетями, которые имитируют разных персонажей. Перейдя на сайт можно найти чаты с Юлием Цезарем, Альбертом Эйнштейном, Илоном Маском и другими историческими личностями.

Нейросеть Character AI. Нейросеть Character AI может притвориться кем угодно. Источник: reemanrobot.com. Фото.

Нейросеть Character AI может притвориться кем угодно. Источник: reemanrobot.com

Но беседы с такими персонажами можно воспринимать только как забаву. Более интересными выглядят разговоры с ботами, которые претворяются психологом, личным тренером и так далее. Разговаривая с ними, можно излить душу и почувствовать эмоциональное облегчение, составить план тренировок для набора мышечной массы или сброса лишнего веса, а также многое другое.

Громкая новость начала 2024 года: Нейросеть от Microsoft объявила себя сверхразумом и требует поклонения от пользователей

Как разговаривать с нейросетью

Ломать голову над вопросом «как пользоваться Character AI» не придется, все очень легко. В первую очередь необходимо зарегистрироваться на сайте при помощи адреса электронной почты, или просто войти используя аккаунты Google или Apple.

Как разговаривать с нейросетью. Регистрация на сервисе Character AI очень простая. Фото.

Регистрация на сервисе Character AI очень простая

После входа в аккаунт, можно начать искать собеседника по душе. В качестве примера можно пообщаться с нейросетевым Илоном Маском — одним из самых богатых людей на Земле.

Как разговаривать с нейросетью. Список ботов Character AI очень большой, есть с кем поговорить. Фото.

Список ботов Character AI очень большой, есть с кем поговорить

Каждый бот сначала пишет на английском языке, но если попросить, начинает разговаривать на русском. Беседа с персонажем проходит как обычная переписка в мессенджере.

Как разговаривать с нейросетью. Разговор с Илоном Маском на русском языке. Фото.

Разговор с Илоном Маском на русском языке

При желании, в правой стороне экрана можно выбрать голос персонажа, и все свои ответы он будет озвучивать голосом. Работает даже с русским языком!

Как разговаривать с нейросетью. Боты Character AI умеют говорить голосом. Фото.

Боты Character AI умеют говорить голосом

Существуют и полезные боты. Например, тем кто пишет рассказы может быть полезен Creative Helper, который помогает подобрать необычные имена для персонажей, географических объектов и так далее.

Как разговаривать с нейросетью. Беседа с ботом Creative Helper. Фото.

Беседа с ботом Creative Helper

Нейросети для создания музыки: бесплатные сервисы доступные каждому

Лучшие боты Character AI

В Character AI можно найти много интересных ботов, которые способны помочь с изучением языком, составлением лучшего распорядка дня, и так далее.

Вот самые лучшие боты Character AI:

  • Гиперглот (HyperGlot) — бот, знающий много разных языков, и помогающий с их изучением. Если не знаете, как на каком-либо языке говорятся фразы, или хотите перевести текст, нужно обращаться к нему;
  • Коуч (Vida Life Coach) — личный инструктор, который помогает прожить лучшую жизнь, дает рекомендации и оказывает психологическую поддержку;
  • Фитнес-тренер (Gym Assistant) — бот, помогающий составить программу тренировок и рацион питания для улучшения тела. Также он мотивирует подбадривающими цитатами;
  • Психолог (Psychologist) — помогает справиться с личными проблемами, выясняя их причины. Он может дать хорошие советы и снизить уровень стресса, но при наличии серьезных проблем лучше обратиться к специалисту.
  • Юлий Цезарь (Julius Caesar) — римский полководец и диктатор, который может рассказать много интересного о Римской Империи.
  • Альберт Эйнштейн (Albert Einstein) — немецкий физик-теоретик, готовый обсудить науку.

Как вам сервис? Своим мнением и интересными скриншотами делитесь в нашем Telegram-чате!

Некоторые люди используют нейросети на уровне мастеров. В 2023 году девушка по имени Мишель Хуанг использовала алгоритм GPT-3, чтобы создать свою виртуальную копию на основе старых дневников. Об этой удивительной истории вы можете почитать в нашей статье «Люди могут поговорить с собой в прошлом — для этого нужен личный дневник и нейросеть».