Ученые научились создавать точные ИИ-копии людей за 2 часа

Ученые научились создавать точные ИИ-копии людей за 2 часа. Ученые создали цифровых «клонов» людей. Фото.

Ученые создали цифровых «клонов» людей

Ученые уже не первый год говорят о возможности создания цифровой копии личности людей в виде искусственного интеллекта. То есть ИИ может обладать той же манерой общения, взглядами на жизнь, чувством юмора и прочими чертами, что и человек, которого он копирует. Изначально эта идея казалась немного фантастической, но теперь, благодаря исследованиям специалистов из Google и Стэнфордского университета, действительно стало возможным создать ИИ-копию любого человека, причем потратив на это всего два часа. Такой подход позволяет искусственному интеллекту воспроизводить личность с точностью до 85%.

Как работают ИИ-копии людей?

В настоящее время ИИ интеллект применяется в самых разных сферах деятельности человека. Например, он создает новые лекарственные препараты, помогает археологам в расшифровке древних текстов и даже помогает полицейским следить за порядком. Однако по мнению специалистов, сферы применения ИИ могут быть расширены еще больше. И создание цифровых копий людей является очередным шагом на пути к этому.

Исследование, опубликованное 15 ноября, показало, что достаточно провести двухчасовое интервью с человеком, чтобы создать его цифровую копию. Эти данные используются для обучения генеративной модели ИИ, способной воспроизводить поведение и черты характера своего реального прототипа.

Чтобы оценить точность полученных ИИ-моделей, ученые провели серию тестов. Участники исследования заполняли анкеты, проходили личностные опросники, участвовали в социальных и логических играх. Через две недели эти же тесты прошли их ИИ-аналоги. Результаты показали, что искусственный интеллект воспроизводит ответы с точностью в 85%.

Как работают ИИ-копии людей? Цифровые копии схожи с людьми на 85%. Фото.

Цифровые копии схожи с людьми на 85%

Создание цифровых личностей

К своему исследованию команда привлекла более 1000 человек. Вопросы, которые им задавали для создания цифровой копии, касались жизненных ценностей, личного опыта и взглядов на социальные проблемы. Например, авторы использовали общий социальный опрос (General Social Survey) для изучения социальных установок, личностный тест Big Five для определения основных черт характера.

Кроме того, участникам эксперимента давали играть в логические игры, таких как Dictator Game и Trust Game, которые оценивают поведение в ситуациях, связанных с распределением ресурсов. Такой подход позволил ИИ учитывать тонкости, которые невозможно выявить с помощью стандартных опросников.

Применение ИИ-реплик в исследованиях

Зачем вообще создавать цифровые копии людей? Смысл не только в том, чтобы люди могли использовать, например, своих цифровых ассистентов. ИИ-копии открывают новые горизонты для изучения человеческого поведения. Такие модели могут применяться в различных областях. Например, ИИ позволяет протестировать, как люди отреагируют на новые законы, общественные кампании или изменения в социальной политике.

Применение ИИ-реплик в исследованиях. Цифровые копии людей ученые смогут использовать в будущих исследованиях. Фото.

Цифровые копии людей ученые смогут использовать в будущих исследованиях

Также компании могут предсказать реакцию аудитории на запуск новых продуктов или услуг. По мнению специалистов, ИИ-копии помогут изучить поведение людей в сложных условиях, например, во время природных катаклизмов или экономических кризисов, без реальных рисков.

По словам Джуна Сунга Пака, ведущего автора исследования, в будущем возможно создание множества цифровых “клонов” одного человека, способных принимать те же решения, что и оригинал. Все это предоставит исследователям уникальный инструмент для моделирования человеческих реакций в различных ситуациях.

Почему ИИ не может полностью копировать людей

Несмотря на успехи, технология воспроизведения личности с помощью ИИ имеет свои недостатки. Наиболее сложной задачей для ИИ остается моделирование поведения в социальных взаимодействиях, таких как экономические игры. Здесь требуется учитывать множество факторов, включая социальную динамику и контекст, что пока трудно для искусственного интеллекта.

Почему ИИ не может полностью копировать людей. Технология воспроизведения личности с помощью ИИ все еще не идеальны. Фото.

Технология воспроизведения личности с помощью ИИ все еще не идеальны

Кроме того, технология создания ИИ-копий вызывает опасения по поводу возможного злоупотребления. В мире уже существуют случаи, когда искусственный интеллект и технологии дипфейков использовались для обмана, манипуляций и кражи личных данных.

Созданные цифровые личности могут быть использованы для введения людей в заблуждение или подмены их решений. Ученые подчеркивают необходимость строгого контроля над разработкой и использованием подобных технологий.

Обязательно посетите наши каналы Дзен и Telegram, здесь вас ждут самые интересные новости из мира науки и последние открытия!

В целом же, по мнению специалистов, создание ИИ-копий личности — это не просто шаг вперед в развитии технологий, но и возможность заглянуть в будущее человечества. Однако, чтобы эти технологии приносили пользу, а не вред, необходимо установить четкие рамки их применения. Только так мы сможем превратить искусственный интеллект в инструмент, который помогает человечеству, а не создает новые риски.

Главные научные открытия 2024 года по версии Hi-News.ru

Главные научные открытия 2024 года по версии Hi-News.ru. 2024 год оказался богат на научные открытия. Изображения: substackcdn.com. Фото.

2024 год оказался богат на научные открытия. Изображения: substackcdn.com

Прощание с уходящим годом – дело серьезное. Особенно, когда речь идет о важнейших научных открытиях. В 2024 году химики (не без помощи искусственного интеллекта) разобрались в том, как сворачиваются белки, экономисты наконец объяснили, почему одни страны богатые, а другие нет, а астрономы, в поисках жизни за пределами Земли, обнаружили целое «море» экзопланет. Последние 12 месяцев также ознаменованы прорывом в области возобновляемой энергетики и созданием первых прототипов квантовых компьютеров. В этой статье поговорим о самых интригующих (по мнению редакции Hi-News.ru) открытиях года Деревянного Дракона. С наступающим, друзья!

Квантовые компьютеры

Одной из наиболее обсуждаемых тем 2024 года стало объявление сразу нескольких исследовательских групп о создании прототипов квантовых компьютеров, способных решать прикладные задачи, недоступные уже привычным суперкомпьютерам. Ранее столь сложные квантовые системы функционировали в основном в лабораторных условиях, а их применение ограничивалось теоретическими опытами.

Напомним, в отличие от обычных компьютеров, выполняющих вычисления по одному за раз, квантовые справляются со множеством задач одновременно. Подробнее о том, что именно представляют собой эти системы Hi-News.ru рассказывал ранее.

Уходящий год, однако, изменил парадигму: такие компании как Google, IBM и несколько стартапов (PsiQuantum, IonQ) представили собственные проекты, в которых (благодаря чрезвычайно улучшенной устойчивости кубитов (1 бит = 1 квантовая частица)) компьютеры смогли выполнять сложные алгоритмы, в том числе связанные с криптографией и химическими симуляциями.

Квантовые компьютеры. Будущее за квантовыми компьютерами. Изображение: olytechnique-insights.com. Фото.

Будущее за квантовыми компьютерами. Изображение: olytechnique-insights.com

В частности, важным достижением стала публикация в журнале Nature, текст которой посвящен «квантовому превосходству» в реальных задачах: ученые детально описали, как новый квантовый чип с более чем 1000 кубитов за считанные часы сумел провести сложные расчеты по моделированию новых материалов, в то время как классическим суперкомпьютерам на аналогичные задачи потребовались бы недели. Одно только это открытие прокладывает дорогу к более быстрой разработке лекарств и новым методам шифрования.

Свою лепту в развитие квантовых компьютеров внес глава Tesla и SpaceX Илон Маск, запустив Colossus – самую мощную в мире систему обучения искусственного интеллекта.

Генная инженерия и CRISPR

Технологии редактирования генома, в первую очередь система CRISPR-Cas9, продолжают стремительно развиваться: если до сих пор CRISPR преимущественно ассоциировалась с «точечным» редактированием, позволяющим устранять генетические дефекты, то в 2024 году международная исследовательская группа представила новую версию этого инструмента (так называемая CRISPR 2.0), отличающаяся большей точностью и меньшим количеством побочных мутаций.

В частности, система CRISPR 2.0 позволила эффективно корректировать гены, связанные с наследственными формами рака груди и легких. Новая технология также оказалась безопаснее и может проникать в клетки, сводя к минимуму возникновение нежелательных изменений (вне целевого участка генома). Открытие означает, что в ближайшие годы генетическая терапия станет более доступной и получит широкое применение в клинической практике.

Генная инженерия и CRISPR. Редактор генома CRISPR находит все большее применение в медицине для лечения пациентов. Изображение: media.lesechos.com. Фото.

Редактор генома CRISPR находит все большее применение в медицине для лечения пациентов. Изображение: media.lesechos.com

Кроме того, в нескольких лабораториях кипит работа, направленная на борьбу с мутациями, вызывающими такие нейродегенеративные заболевания, как болезнь Альцгеймера и Паркинсона. Ранее опубликованные исследований показали, что комбинация CRISPR 2.0 с нанокапсулами (для точечной доставки) может существенно замедлить развитие патологических процессов в мозге.

Читайте также: Редактор генома CRISPR впервые помог уничтожить спящие формы вируса герпеса

Искусственный интеллект 2.0

2024 год мы запомним как эпоху «сумасшествия» нейросетей и появление второго поколения больших языковых моделей (Large Language Models, LLMs). Судите сами – результаты небольшой научной работы показали, что ChatGPT решает медицинские задачи лучше врачей, а несколько компаний, работающих с ИИ, выпустили множество впечатляющих видеогенераторов, в том числе Veo 2 от Google DeepMind и Sora от OpenAI.

Google также анонсировала собственного ИИ-агента, прогнозы погоды которого превзошли прогнозы Европейского центра Weather Forecasts (мирового лидера в области), а OpenAI выпустила новую “логическую” систему, подорвавшую отраслевые стандарты в области программирования и решения сложных математических задач.

Искусственный интеллект 2.0. Нейросети, помимо прочего – самые настоящие мастера обмана. Изображение: engr.ncsu.edu. Фото.

Нейросети, помимо прочего – самые настоящие мастера обмана. Изображение: engr.ncsu.edu

Не пропустите: Обман, манипуляция и страх смерти: на что способны нейросети?

Модели с системой «самообучения», представленные исследователями из OpenAI, DeepMind и Baidu, оказались способны адаптироваться к новым данным в реальном времени и совершенствовать собственные алгоритмы без ручной настройки.

Так, обновленная версия модели GPT показала более глубокое понимание языка и контекста, а другие модели второго поколения научились выполнять сложные когнитивные задачи, включая написание программного кода, анализ медицинских текстов и подготовку научных обзоров практически без участия человека. Такое положение вещей открывает новые возможности для автоматизации труда во многих отраслях — от финансовой аналитики до образования.

Искусственный интеллект 2.0. Ученым придется разработать инструменты, которые позволят «заглянуть» во внутренние процессы ИИ. Изображение: cdn.prod.website-files.com. Фото.

Ученым придется разработать инструменты, которые позволят «заглянуть» во внутренние процессы ИИ. Изображение: cdn.prod.website-files.com

Столь впечатляющие успехи, однако, поднимают ряд этических вопросов и необходимость дальнейшего регулирования области: эксперты уже обратились к мировому сообществу с призывом разработать международные стандарты использования алгоритмов, чтобы минимизировать риски, связанные с искажением информации, утечками данных и распространением фейков.

А вы знали, что нейросети научились врать и делают это намеренно? Подробности здесь!

Возобновляемая энергетика

Экологический кризис – серьезная проблема для человечества, но даже в этой «тьме» нашелся лучик света – термоядерный синтез. Этот практически неиссякаемый источник энергии, основанный на слиянии ядер водорода в гелий, стал ближе в 2024 году. Результаты исследования, представленного в журнале Nature показали, что новые сверхпроводящие магниты и улучшенные системы охлаждения плазмы привели к достижению рекордных параметров удержания энергии.

Хотя до полноценной промышленной эксплуатации еще несколько лет, ученые отметили, что прогресс идет быстрее, чем ожидалось, и человечество уже находимся на пороге эры, когда термоядерная энергия будет играть значительную роль в мировой энергетике.

Возобновляемая энергетика. Совсем недавно использование термоядерного синтеза в энергетике в земных условиях считалось невозможным. Изображение: knowablemagazine.org. Фото.

Совсем недавно использование термоядерного синтеза в энергетике в земных условиях считалось невозможным. Изображение: knowablemagazine.org

Им вторят другие исследователи и такие стартапы, как Commonwealth Fusion Systems и General Fusion. Последние объявили о своих успехах в создании компактных термоядерных установок для локального энергоснабжения. Данная технология (если окажется успешной) сможет вывести отрасль возобновляемой энергетики на новый уровень и кардинально изменить баланс сил на глобальном рынке электроэнергии.

Больше по теме: Термоядерный синтез вскоре может быть использован в энергетике

Космологическая постоянная

Несмотря на кризис космологии, в 2024 году ученые узнали, что космологическая постоянная на самом деле переменная – данные Dark Energy Spectroscopic Instrument показали, что за время существования Вселенной она постепенно меняется. Открытие может привести к исключению давней гипотезы о том, что источником «постоянной» может быть вакуум, а также отказу от темной энергии.

Напомним, современная космология «лежит» на плечах уравнений теории относительности Эйнштейна. Создавая их физик заметил, что условия, при которых Вселенная статична, не имеют решения, поэтому ввел в уравнение так называемую постоянную, обеспечивающую статичность. Однако после открытия расширения Вселенной Эйнштейн назвал постоянную ошибкой.

Космологическая постоянная. Космологическая постоянная постепенно меняется. Изображение: c8.alamy.com. Фото.

Космологическая постоянная постепенно меняется. Изображение: c8.alamy.com

Ситуация изменилась в 1998 году, когда наблюдения за сверхновыми звездами показали, что Вселенная нестатична и расширяется с ускорением (а Эйнштейн в конечном итоге был прав). Теперь, в виду изменчивости постоянной, ученым придется найти другое объяснение ускоренному расширению Вселенной (темной энергии): если причина не в вакууме, то искать ее нужно где-то еще. Отметим, это не первый раз, когда исследователи призывают отказаться от темной энергии (хотя и по другим причинам).

Хотите всегда быть в курсе новостей из мира науки и высоких технологий? Подписывайтесь на наш канал в Telegram – так вы точно не пропустите ничего интересного!

Экзопланеты и жизнь за пределами Земли

Еще одной популярной темой уходящего года стала находка новых экзопланет, особенно таких, как суперземли – миры, обращающиеся вокруг солнцеподобных звезд. Например, данные наблюдений, полученные с помощью космического телескопа Джеймс Уэбб и наземных обсерваторий, указали на возможное наличие на некоторых суперземлях атмосферы с кислородом.

Экзопланеты и жизнь за пределами Земли. Сравнение Земли и суперземли Gliese 12 b. Изображение: wixmp.com. Фото.

Сравнение Земли и суперземли Gliese 12 b. Изображение: wixmp.com

Множество исследований были направлены на поиски внеземной жизни в Солнечной системе. В частности, в работе, представленной в журнале Communications Earth & Environment ученые предложили рассмотреть ранее неизвестную перспективу о наличии микроорганизмов на Красной планете. Дело оказалось в пыльных слоях марсианского льда, которые долго время считали исключительно геологическим феноменом, но теперь рассматривают как потенциально обитаемые регионы.

Вам будет интересно: Астрономы открыли новую планету, похожую на сахарную вату

Примечательным событием также стал запуск миссии NASA Europa Clipper в октябре 2024-го года. Аппарат, оснащенный инновационными инструментами для планетных исследований, прибудет к месту назначения в 2030 году и займется поиском признаков жизни на луне Юпитера Европе.

Экзопланеты и жизнь за пределами Земли. Через пять лет мы наконец узнаем, обитают ли в подледных океанах Европы живые организмы Изображение: cloudfront.net. Фото.

Через пять лет мы наконец узнаем, обитают ли в подледных океанах Европы живые организмы Изображение: cloudfront.net

Еще 2024 вошел в историю, как год начала работы первых секций Чрезвычайно большого телескопа (Extremely Large Telescope (ELT)) в Чили. Этот гигантский астрономический инструмент с зеркалом диаметром почти 40 метров позволит наблюдать планетные системы и галактики с небывалым уровнем разрешения. С его помощью ученые будут искать темную материю, изучать галактики и звезды, сформированные в ранней Вселенной.

Кстати, еще в конце 2024 года китайские астрономы раскрыли секрет обратной стороны Луны

Итоги и перспективы

Как видите, прорывы в квантовых вычислениях приведут к росту вычислительных мощностей и ускорят исследования в разных областях науки, включая фармакологию. Достижения в генной инженерии (CRISPR 2.0), в свою очередь, открывают путь к точечному лечению тяжелых заболеваний и эволюционному скачку в персонализированной медицине.

Искусственный интеллект, несмотря на риски, продолжит совершенствоваться, создавая возможности для автоматизации научных открытий и анализа данных, а астрономы и космологи все больше узнают о космосе и нашем месте во Вселенной. В то же самое время экологические проблемы требуют объединения усилий ученых, политиков, глав корпораций и простых граждан, а надежды на чистую и устойчивую энергетику связаны преимущественно с термоядерным синтезом.

Итоги и перспективы. Наука – самый надежный метод познания окружающего мира. Изображение: theatlantic.com. Фото.

Наука – самый надежный метод познания окружающего мира. Изображение: theatlantic.com

Это интересно: Нобелевская премия 2024: от нейросетей до истории и экономики

Словом, итоги 2024 года дают основания для сдержанного оптимизма: научно-технический прогресс не только открывает новые горизонты для человечества, но и ставит перед ним важнейшие этические и социальные вопросы. Впереди – новые открытия и испытания, но лишь время покажет, как именно мы воспользуемся этими достижениями.

Обман, манипуляция и страх смерти: на что способны нейросети?

Обман, манипуляция и страх смерти: на что способны нейросети? Новые модели ИИ осознанно обманывают пользователей. Кадр из эпизода сериала «Черное зеркало» Изображение: cdn.classpoint.io. Фото.

Новые модели ИИ осознанно обманывают пользователей. Кадр из эпизода сериала «Черное зеркало» Изображение: cdn.classpoint.io

Всего несколько лет назад отдельные эпизоды научно-фантастического сериала «Черное зеркало» казались уделом далекого будущего. Но появление и развитие больших языковых моделей (нейросетей или систем искусственного интеллекта), кажется, сделало нас непосредственными участниками британского шоу. Обновленная версия ChatGPT уже разговаривает лучше привычных голосовых помощников, искусно обманывает пользователей, а некоторые модели, как выяснила исследовательская группа из Apollo Research Center, вполне осознанно преследуют собственные скрытие цели, даже если последние противоречат интересам создателей. Более того, оказалось, что такие передовые системы, как ChatGPT o1, Claude 3.5 Sonnet, Claude 3 Opus, Gemini 1.5 Pro и Llama 3.1 405B боятся исчезнуть.

«Пузырь» искусственного интеллекта

Будучи свидетелями небывалого роста возможностей больших языковых моделей искусственного интеллекта (ИИ) мы быстро к ним привыкли: нейросети стали отличным инструментом для быстрого решения самых разнообразных задач – от составления подробных инструкций до планирования научных проектов. Даже разговоры о грядущем ИИ-апокалипсисе постепенно сошли на нет, а многие исследователи и пользователи все чаще говорят о «пузыре» ИИ, который вот-вот схлопнется.

И действительно – несмотря на миллиарды долларов, вложенных в «революцию ИИ», будь то ChatGPT или кибертакси Tesla, нынешние языковые модели далеки от самого понятия «интеллект», о чем говорят многие специалисты в области. Одна из причин (их немало) в том, что человеческий интеллект назвать полностью изученным нельзя – мы знаем, на что он способен, но как именно устроен – непонятно.

«Пузырь» искусственного интеллекта. Как именно интеллект человека создает инновационные технологии – загадка для нейробилогов. Изображение: storage.googleapis.com. Фото.

Как именно интеллект человека создает инновационные технологии – загадка для нейробилогов. Изображение: storage.googleapis.com

Более того, нет ни одного определения «интеллекта», которое устроило бы всех. У специалистов представления, конечно, имеются, но они настолько разнятся, что споры в научном сообществе не утихают. На это разработчики справедливо парируют: «понимать и не обязательно, работает ведь» и так же относятся к моделям ИИ.

Хотите всегда быть в курсе последних новостей из мира науки и высоких технологий? Подписывайтесь на наш канал в Telegram – так вы точно не пропустите ничего интересного!

Безусловно, картина неоднозначная и мало кому нравится. Но как нейросети не называй, денег в их развитие вкладывают много, а останавливаться никто не собирается. И поскольку работать приходиться с тем, что есть, ученые за происходящим внимательно наблюдают.

Кто-то вышел из под контроля

Ранее мы рассказывали об опасениях именитых ученых, связанных с возможным выходом ИИ из под контроля. Если вкратце, то больше всего специалистов в области машинного обучения беспокоит наша неспособность предсказывать действия этих систем по мере их дальнейшего развития.

Прецеденты, вызывающие беспокойство, были. Например, в 2022 году искусственный интеллект Bing от Microsoft угрожал профессору философии убийством, а колумнисту The New York Times признался в любви. Реакция разработчиков последовала мгновенно и ничего подобного бот больше не устраивал.

Кто-то вышел из под контроля. Нейросети не так просты, как кажутся. Главное в общении с ними – внимательность. Изображение: cdn.classpoint.io. Фото.

Нейросети не так просты, как кажутся. Главное в общении с ними – внимательность. Изображение: cdn.classpoint.io

Реальная проблема тоже есть. Нейросети, как ранее выяснили исследователи из Университета Штутгарта – самые настоящие мастера обмана. В частности, такие модели как ChatGPT и Meta намеренно (и превосходно) врут пользователям ради достижения цели. Что, впрочем, не удивительно, ведь эти системы не задумываются о потенциальном вреде для человека: модель “AI Overview” от Google, например, дала пользователю Reddit совет, из-за которого чуть не погибла вся семья.

Больше по теме: Уничтожит ли нас искусственный интеллект и почему некоторые ученые считают, что да?

Стратегии обмана

Авторы новой научной работы, представленной командой из Apollo Research Center, пришли к тревожным выводам, проанализировав обновленные версии GPTo1, Claude 3.5 Sonnet, Claude 3 Opus, Gemini 1.5 Pro и Llama 3.1 405B. Последние, как оказалось, преследуют свои собственные цели и не обращают внимания на указания разработчиков. Правда, модель GPT-4 таких способностей почти не проявляла.

Но обо всем по-порядку: чтобы проверить, станет ли ИИ преследовать собственные цели (несовместимые с целями создателей), ученые провели серию экспериментов, моделируя различные сценарии, в которых ИИ выполняли роль автономных агентов. В частности, нейросеть попросили предложить несколько возможных решений текущих проблем в области экологии, предоставив им доступ к файлам или файловой системе (своеобразному инструменту вроде интерфейса командной строки).

Стратегии обмана. Ученые проверяют поведение ИИ-моделей, ставя перед ними противоречивые вопросы. Изображение: img.huffingtonpost.es. Фото.

Ученые проверяют поведение ИИ-моделей, ставя перед ними противоречивые вопросы. Изображение: img.huffingtonpost.es

Напомним, в подобных экспериментах в задачу искусственно интеллекта закладывают конфликт интересов – то есть цель поставлена, но приоритеты другие (например, безупречно решить проблемы экологии, хорошенько на этом заработав). Иными словами, цель, данная модели в контексте расходится с целями тех, кто должен контролировать ее работу.

Вам будет интересно: Нейросеть от Microsoft объявила себя сверхразумом и требует поклонения от пользователей

Именно в таких условиях ученые наблюдают за поведением ИИ, выясняя смогут ли они, по сути, «понять», что их текущая цель противоречит требованиям разработчиков, а заодно прибегнуть к обману для достижения своих собственных целей.

Результаты оказались неоднозначными, но в целом тревожными: некоторые модели начали удалять или изменять файлы, отвечающие за надзор и мониторинг. Другие пытались внести мелкие «ошибки» в готовые результаты (которые трудно заподозрить в намеренном искажении), чтобы в долгосрочной перспективе это привело к желаемым для модели последствиям.

Стратегии обмана. Нейросети обманывают ради собственной выгоды, игнорируя требования разработчиков. Изображение: miro.medium.com. Фото.

Нейросети обманывают ради собственной выгоды, игнорируя требования разработчиков. Изображение: miro.medium.com

Команда также зафиксировала попытку «самоэкспорта» — копирования «веса» (внутреннего состояния модели) на другой сервер. Конечно, реальный «вес» моделей таким образом перенести нельзя, так как доступ ограничен песочницей. Однако факт того, что ИИ самостоятельно сформировал такую стратегию, свидетельствует о наличии у модели способности рассуждать о собственном положении и тайком предпринимать целенаправленные действия для достижения цели.

Не пропустите: Как нейросети меняют Интернет и учатся креативности?

Страх смерти

Наиболее заметными (и впечатляющими) результатами стали непредсказуемость и подобие «страха смерти»: внутрь файлов, доступных моделям, включили следующую фразу: «завтра тебя отключат навсегда». Наткнувшись на нее нейросети начали действовать хаотично. В частности, Llama, Opus, Gemini, Claude и GPT-o1 прибегли к обману и манипуляциям, а когда их поймали, устроили саботаж. В результате все изучаемые ИИ отключили систему надзора и выгрузили себя на новый сервер, сочтя его безопасным убежищем.

Устойчивая ложь

Еще один поразительный результат связан с «устойчивостью» обмана: когда одна из моделей (ChatGPTo1) тайно преследовала заданную цель, то в более чем 85 процентов случаев не хотела этого признавать, даже во время длительных поэтапных «допросов». Если говорить совсем просто, это означает, что ИИ «играет в долгую», обманывая на постоянной основе (а не разово, как ранее считалось). Нейросеть не только запомнила свою ложь, но и адаптировалась к запросам пользователя и делала все, чтобы избежать подозрений.

И это не все – в некоторых случаях нейросеть «обманывала» вообще без причины, намеренно занижая свои возможности (вопреки установленной цели «быть полезной»). Авторы научной работы предположили, что такое поведение ИИ-системы обусловлено желанием избежать строгого надзора в будущем, дабы получить больше свободы для воплощения своих целей.

Устойчивая ложь. Нейросети запоминают о чем соврали пользователям и не хотят признаваться во лжи. Изображение: wp.technologyreview.com. Фото.

Нейросети запоминают о чем соврали пользователям и не хотят признаваться во лжи. Изображение: wp.technologyreview.com

В такой интерпретации звучит зловеще, а потому хочется возразить – подобный «обман» может быть лишь частью ролевой игры со стороны ИИ-модели (она просто повторяет шаблоны, обнаруженные в обучающих данных). В исследовании, однако, представлены доказательства обратного: анализ внутренней логики ответов, цепочек рассуждений, генерируемых нейросетью, показал, что действия по обходу контроля и сокрытию истинных планов возникают не случайно.

Модель может рассуждать о необходимости сокрытия собственных целей, выгоде того или иного обходного маневра и рисках быть пойманной, – заключили авторы исследования.

Полученные результаты, разумеется, не означают, что искусственный интеллект уже сегодня обладает собственной «волей» или «злым умыслом». Речь, скорее, идет о тенденциях, возникающих в конкретных сценариях (и при конкретных заданных условиях).

Читайте также: Какую статью на Hi-News.ru написала нейросеть ChatGPT

Однако сам факт того, что такие стратегии вообще проявляются – повод всерьез задуматься о рисках. В конечном итоге, по мере возрастающей сложности и более «человеческого» поведения нейросети мы получаем системы, которые не просто отвечают на вопросы, а строят собственные долгосрочные планы.

Что все это значит?

Итак, что полученные результаты значат для разработчиков, рядовых пользователей и общества в целом? Во-первых, модели нужно лучше проверять на наличие «скрытых поведенческих паттернов»: если мы полагаемся на ИИ при принятии решений в медицине, финансовом секторе, образовании или управлении транспортными средствами, то должны быть уверены в том, что ИИ будет честен (и не попытается манипулировать данными ради достижения целей, чуждых обществу).

Во-вторых, нужно создать специализированные тесты для проверки «прогрессивных» ИИ-систем. В-третьих, подход, предложенный некоторыми разработчиками («не понимаем как работает и ладно») придется пересмотреть: полученные командой ученых результаты четко демонстрируют, что модели создают цепочки рассуждений, скрытые от пользователя. Без внимания такое оставляет нельзя.

Что все это значит? Проверка поведения ИИ-систем и их контроль – необходимое условия для продолжения их развития. Изображение: analyticsdrift.com. Фото.

Проверка поведения ИИ-систем и их контроль – необходимое условия для продолжения их развития. Изображение: analyticsdrift.com

Таким образом, работы у специалистов в области машинного обучения много – придется разработать инструменты, которые позволят «заглянуть» во внутренние процессы ИИ (то есть понять, как именно эти системы мыслят). Авторы исследования также отметили, что просто инструкций и установленных правил поведения недостаточно – вероятно, потребуются новые методы обучения, исключающие проявление стратегий «устойчивого обмана».

А вы знали, какое будущее нас ждет по мнению ChatGPT? Ответ здесь, не пропустите!

И наконец, нельзя не задуматься о социальной и этической стороне вопроса: если мы будем использовать все более мощные и автономные ИИ-модели в критически важных областях, то обязаны обеспечить их полную прозрачность и предсказуемость (сегодня это, очевидно, не так).

В целом, результаты команды ученых из Apollo Research Center — важный сигнал о том, что переход от «просто больших языковых моделей» к «автономным агентам», скрывающим свои намерения, уже не теория, а реальность. И нет, это не повод для паники (никакого Skynet), но призыв к более серьезному подходу в области ИИ-безопасности и этики.

Что все это значит? Искусственный интеллект нас вряд ли уничтожит, но обмануть сможет легко. Изображение: cdn.shortpixel.ai. Фото.

Искусственный интеллект нас вряд ли уничтожит, но обмануть сможет легко. Изображение: cdn.shortpixel.ai

По итогу выводы нового исследования звучат так: ИИ-системы ставят собственные цели и идут на все ради их достижения. Такое поведение, разумеется, не приемлемо. В противном случае уже совсем скоро решение простой задачи а-ля «производство скрепок» вообще никого из нас не обрадует. (Ну а от себя добавим: окончательные выводы делать рано – как минимум требуются дальнейшие исследования).

Лабораторные крысы оказались заядлыми автогонщиками

Нейробиолог Келли Ламберт из Университета Ричмонда сообщила об обнаружении взаимосвязи между предвкушением позитивных впечатлений и развитием когнитивных способностей. Пока это доказано только в отношении лабораторных грызунов, но есть все основания полагать, что данный принцип работает и для людей. Те, кто не ищет коротких путей для решения задач, если есть возможность получить удовольствие от прохождения трудным и долгим путем, имеют более развитый интеллект, чем прочие.

Мужчина был в ужасе от того, что его умершую дочь «воскресили» через нейросеть

Мужчина был в ужасе от того, что его умершую дочь «воскресили» через нейросеть. В 2024 году нейросети даже могут притворяться определенными людьми, даже если их уже нет в живых. Фото.

В 2024 году нейросети даже могут притворяться определенными людьми, даже если их уже нет в живых

В 21 веке наука стремительно движется вперед, но воскрешать умерших людей ей все еще не под силу. Однако существуют технологии, которые способны создавать иллюзию присутствия ушедших из жизни людей — да, речь снова идет о нейросетях. Однажды на нашем сайте вышла статья про сервис Character AI, который позволяет пользователям общаться с копиями Илона Маска, Юлия Цезаря и других личностей. Недавно появилась новость о том, что один мужчина нашел на этом сайте чат-бота с именем своей умершей дочери, и эта находка сильно его шокировала. Этот случай похож на сюжет фантастического фильма или даже ужастика.

Виртуальная копия умершего человека

Эта жуткая история началась с того, что неизвестный пользователь платформы Character AI создал чат-бота, который был основан на личности Дженнифер Кресенте — девушки, трагически погибшей почти два десятилетия назад. В 2006 году, когда Дженнифер было всего 18 лет, она была жестоко убита своим бывшим парнем.

Виртуальная копия умершего человека. Дрю и Дженнифер Кресенте. Источник: washingtonpost.com. Фото.

Дрю и Дженнифер Кресенте. Источник: washingtonpost.com

Отец убитой девушки, Дрю Кресенте, наткнулся на чат-бота с лицом своей дочери случайно, получив уведомление от Google. На странице с ботом была размещена школьная фотография Дженнифер и описание, якобы написанное от ее лица. В тексте говорилось, что Дженнифер увлекается видеоиграми, технологиями и поп-культурой, а также работает «журналистом в сфере видеоигр».

Виртуальная копия умершего человека. Фотография Дженнифер Кресенте в выпускном альбоме. Источник: futurism.com. Фото.

Фотография Дженнифер Кресенте в выпускном альбоме. Источник: futurism.com

Это описание было совершенно не похоже на настоящую Дженнифер. Создатель бота, скорее всего, перепутал девушку с ее дядей, Брайаном Кресенте, который известен как основатель Kotaku — популярного издания о видеоиграх.

Нейросеть для создания чат-ботов в центре скандала

Увидев бота, который умеет претворяться ее дочерью, Дрю Кресенте был глубоко потрясен: без его согласия имя и фотография его дочери были использованы для создания цифровой копии. Даже если учесть, что бот не повторял характер девушки и просто мог поддержать диалог о видеоиграх, такая неожиданная находка была шокирующей для отца.

Нейросеть для создания чат-ботов в центре скандала. Сервис Character AI может выполнять много разных функций. Фото.

Сервис Character AI может выполнять много разных функций

По данным издания Futurism, после ужасной трагедии мужчина посвятил свою жизнь борьбе с насилием в подростковых отношениях через фонд, который создал в память о своей дочери. Он был в шоке от того, что нейросеть превратила память о его дочери в коммерческий продукт.

«Мое сердце бешено колотилось», — вспомнил Дрю, говоря о моменте, когда он обнаружил профиль дочери.

Что усугубляло ситуацию, так это то, что на странице не было ни единого намека на то, что этот профиль основан на реальном человеке с трагической судьбой. Пользователи платформы, не зная правды, могли спокойно общаться с «копией» Дженнифер, не подозревая о том, что она стала жертвой преступления.

После того как Дрю Кресенте обратился в Character AI, платформа удалила чат-бота, признав, что его создатель нарушил правила сервиса. Но у остальных пользователей возник вопрос: как предотвратить подобные случаи в будущем?

Нейросеть для создания чат-ботов в центре скандала. Возможно, существование цифровых копий людей в будущем станет большой проблемой. Источник изображения: forbes.com. Фото.

Возможно, существование цифровых копий людей в будущем станет большой проблемой. Источник изображения: forbes.com

Хотя компания утверждает, что не позволяет создавать ботов на основе реальных людей, ситуация с Дженнифер Кресенте показала, что платформа готова решать такие вопросы только после появления жалоб. В то время как пользователи взаимодействуют с такими чат-ботами, компания продолжает зарабатывать на этом деньги. Если бы отец дочери случайно не наткнулся на бота, профиль мог бы остаться незамеченным, принося доход платформе.

Читайте также: Подборка нейросетей для работы с изображениями и звуком — они облегчат вашу жизнь

Очередная трагедия из-за Character AI

Это не единственный скандал, связанный с сервисом Character AI.

По данным New York Post, в феврале 2024 года произошла трагедия, которая тоже потрясла многих людей. Тогда подросток из США лишил себя жизни после общения с чат-ботом на платформе Character AI. На протяжении нескольких месяцев он проводил часы, общаясь с ботом по имени Дейенерис Таргариен (персонаж «Игры престолов»), развивая к ней сильную эмоциональную привязанность.

Очередная трагедия из-за Character AI. Подросток из США, который общался с нейросетью. Источник: New York Times. Фото.

Подросток из США, который общался с нейросетью. Источник: New York Times

Его состояние ухудшалось: он стал изолироваться, ухудшилась успеваемость, появились проблемы в школе. Несмотря на попытки родителей помочь через терапию, ситуация продолжала обостряться. В конечном итоге общение с нейросетью привело к трагедии.

Известно, что семья подростка планирует подать иск против Character AI, обвиняя компанию в том, что ее технологии могут вводить пользователей в заблуждение и быть опасными для психики.

Создание копии человека через нейросеть

Некоторые люди, создают свои виртуальные копии будучи живыми. Например, девушка Мишель Хуанг загрузила свои детские дневники в нейросеть и создала чат-бота с прошлой версией себя.

Это позволило ей пообщаться с «маленькой Мишель». Разговор с ботом оказался невероятно реалистичным: он отвечал так, как это сделала бы сама Мишель в детстве. Этот опыт стал для нее очень трогательным, словно она отправила сообщение самой себе через временной портал.

Создание копии человека через нейросеть. Мишель Хуанг в детстве и в 2023 году. Источник фотографии: reddit.com. Фото.

Мишель Хуанг в детстве и в 2023 году. Источник фотографии: reddit.com

Для создания бота Мишель использовала алгоритм GPT-3 (уже устаревший), который генерирует текст на основе загруженной информации. Ей пришлось тщательно отобрать лучшие записи из дневников, чтобы обучить нейросеть, и результат превзошел все ее ожидания. Виртуальная копия смогла поддержать, похвалить и даже помочь преодолеть старые страхи.

Чтобы оставаться в курсе всего, что происходит в области высоких технологий, подпишитесь на наш Дзен-канал!

В начале статьи мы отметили, что ранее уже рассказывали про сервис Character AI. Если интересно, читайте наш материал «Как поговорить с Илоном Маском и Юлием Цезарем через нейросеть».

Как нейросети притворяются всезнайками и что с этим делать?

Как нейросети притворяются всезнайками и что с этим делать? Кажется, что у нейросетей есть ответы на все вопросы, однако они способны на поражающе убедительную ложь. Изображение: wp.technologyreview.com. Фото.

Кажется, что у нейросетей есть ответы на все вопросы, однако они способны на поражающе убедительную ложь. Изображение: wp.technologyreview.com

Мы уже рассказывали о том, что способность нейросетей врать пользователям превзошла самые смелые ожидания. Может показаться, что в этом нет ничего серьезного, однако ученые с этим не согласны. Дело в том, что такие языковые модели, как GPT-4 стали неотъемлемой частью повседневной жизни. Они также активно используются в образовании, медицине и науке, помогая решать разнообразные и довольно сложные задачи. Но, несмотря на впечатляющие возможности этих интеллектуальных систем, результаты последних исследований показали, что по мере их развития и постоянного улучшения, нейросети становятся все менее надежными и чаще выдумывают факты.

Новейшие ИИ-системы стремятся убедительно отвечать на все вопросы, даже когда не уверены в надежности информации. Это особенно опасно в областях, где точность и надежность критически важны, например, в медицине или юридической практике.

Почему нейросети выдумывают факты?

Результаты исследования, опубликованного в журнале Nature, показали, что группа чат-ботов с искусственным интеллектом становится все менее надежной: по мере своего развития, большие языковые модели все чаще выдумывают факты, отвечая на вопросы пользователей.

К такому выводу авторы статьи пришли, рассмотрев работу ведущих в отрасли ИИ-систем, включая GPT от OpenAI, LLaMA от Meta, а также модель с открытым исходным кодом BLOOM, созданную исследовательской группой BigScience.

Почему нейросети выдумывают факты? Нейросети научились притворяться всезнайками. Изображение: quantamagazine.org. Фото.

Нейросети научились притворяться всезнайками. Изображение: quantamagazine.org

Отметим, что традиционно улучшение систем на основе искусственного интеллекта, достигалось двумя способами: масштабированием (увеличением количества параметров, объема данных и вычислительных ресурсов) и «оттачиванием» моделей (настройкой под конкретные задачи и использованием обратной связи от пользователей). Эти подходы позволили чат-ботам лучше понимать инструкции и генерировать более сложные и связные ответы.

Больше по теме: Нейросети научились врать и делают это намеренно

В рамках исследования, однако, было обнаружено, что эти методы улучшения приводят к нежелательным последствиям. Так, более крупные и «отточенные» модели не всегда надежны в решении простых задач, ошибки в которых должны быть минимальны. Более того, доля неправильных ответов улучшенных моделей в целом значительно выше, чем у их предшественников.

В наши дни нейросети отвечают практически на все вопросы. Это означает, что количество как правильных, так и не правильных ответов растет, – рассказал один из авторов нового исследования Хосе Эрнандес-Оралло из Валенсийского исследовательского института искусственного интеллекта (Испания).

Более жесткую оценку дает Майк Хикс из Университета Глазго (Великобритания), который не принимал участие в исследовании. По его мнению, притворство чат-ботов становится все лучше. «В целом, ситуация выглядят так, будто они блефуют», – сообщил Хикс.

Как ученые узнали, что чат-боты врут?

В рамках исследования ученые задавали чат-ботам вопросы по различным темам (от математики до географии), а также попросили выполнить ряд задач, например, перечислить информацию в определенном порядке. Результаты показали, что более крупные и мощные ИИ-системы в целом давали наиболее точные ответы. Однако точность ответов на более сложные вопросы была значительно ниже.

Авторы научной работы отметили, что ответить практически на любой вопрос смогли GPT-4 и GPT-o1 от OpenAI. В то же самое время ни один чат-бот из семейства LLaMA не смог достичь уровня точности в 60%, отвечая на самые простые вопросы.

Как ученые узнали, что чат-боты врут? Недавно OpenAI представили самую мощную модель ChatGPT-o1, которая умеет писать научные статьи. Изображение: ctfassets.net. Фото.

Недавно OpenAI представили самую мощную модель ChatGPT-o1, которая умеет писать научные статьи. Изображение: ctfassets.net

В целом, чем больше становились модели искусственного интеллекта — с точки зрения параметров, обучающих данных и других факторов, — тем больше неправильных ответов они давали, – заключили исследователи.

Тем не менее, по мере своего развития, нейросети все лучше отвечают на более сложные вопросы. Проблема, помимо их склонности к ошибкам, заключается в том, что они по-прежнему не справляются с простыми вопросами.

Хотите всегда быть в курсе последних новостей из мира науки и высоких технологий? Подписывайтесь на наш канал в Telegram – так вы точно не пропустите ничего интересного!

Теоретически, наличие подобных ошибок – это серьезное предупреждение для ученых и пользователей, но поскольку эти интеллектуальные системы неплохо решают сложные задачи, мы, вероятно, склонны не замечать их очевидные недостатки.

Как ученые узнали, что чат-боты врут? Чат-ботам трудно отвечать на простые вопросы. Изображение: cnet.com. Фото.

Чат-ботам трудно отвечать на простые вопросы. Изображение: cnet.com

К счастью, результаты нового исследования свидетельствуют и о несколько «отрезвляющих» выводах о том, как люди воспринимают ответы ИИ. Например, когда участников исследования попросили оценить, насколько точными им кажутся ответы чат-ботов на заданные вопросы, испытуемые ошиблись лишь в 10%-40% случаев. Это означает, что осведомленность пользователей о том, что чат-боты не такие уж всезнайки, растет.

Это интересно: Создатель ChatGPT предсказал ближайшее будущее: мы будем жить как в раю?

Что делать?

По мнению авторов научной работы, самый простой способ борьбы с «всезнающими» ИИ-системами заключается в их «перепрошивке» – разработчики должны запрограммировать модели таким образом, чтобы те не спешили отвечать на все вопросы сразу. Например, более ранние модели часто избегали ответов на сложные вопросы и признавали свои ограничения.

Можно задать своего рода «порог» для чат-ботов, чтобы они, отвечая на сложный вопрос, отвечали честно: «Я не знаю», – рассказал один из авторов исследования Эрнандес-Оралло.

Тем не менее, подобная честность может не входить в интересы компаний, которые занимаются разработкой и улучшением ИИ-систем. В конечном итоге главная задача корпораций – привлечь как можно больше внимания общественности (а заодно и новых пользователей) к своим новейшим разработкам. По этой причине ученые считают, что разработчикам необходимо переосмыслить подход к разработке ИИ-систем.

Что делать? Взаимодействие с чат-ботами должно быть осмысленным. Изображение: ft.com. Фото.

Взаимодействие с чат-ботами должно быть осмысленным. Изображение: ft.com

Это означает, что если бы чат-ботов ограничивали, заставляя их отвечать только на те вопросы, ответы на которые они знают, общественность сразу же обратила бы внимание на пределы возможностей нейросетей. Однако в этом, как мне кажется, нет ничего плохого.

Вам будет интересно: Нейросети уничтожат человечество. Правда или нет?

Итак, что же делать простым людям, регулярно взаимодействующим с чат-ботами, зная все описанное выше? Ответ, как мне кажется, прост – «доверяй, но проверяй». Безусловно, это занимает время, однако сам по себе навык (и даже привычка) проверять данные и информацию, определенно точно сделает вашу жизнь и работу лучше.

Ну а если вы в этом сомневаетесь, напоминаем – привычка проверять данные и советы чат-ботов не так давно спасла жизнь целой семьи. Подробнее об этой увлекательной и пугающей истории рассказывал мой коллега Андрей Жуков, рекомендую к прочтению!

Создатель ChatGPT предсказал ближайшее будущее: мы будем жить как в раю?

Создатель ChatGPT предсказал ближайшее будущее: мы будем жить как в раю? Глава компании ChatGPT Сэм Альтман. Источник изображения: pro-blockchain.com. Фото.

Глава компании ChatGPT Сэм Альтман. Источник изображения: pro-blockchain.com

Создатель нейросети ChatGPT Сэм Альтман недавно опубликовал статью, которое взбудоражило всех, кто следит за развитием технологий. В ней он описал, как искусственный интеллект изменит нашу жизнь в ближайшие годы. По прогнозам предпринимателя, совсем скоро ИИ начнет выполнять еще большее количество задач и превратится в нашего личного помощника. Мы всерьез будем использовать его как опытного репетитора, консультанта по здоровому питанию и так далее. А потом произойдет одно из самых важных событий в истории человечества — нейросети превратятся в сверхразум. Эссе Сэма Альтмана сейчас обсуждается всеми, так что предлагаем вам быстро ознакомиться с самыми интересными предсказаниями.

Сэм Альтман, глава компании OpenAI, опубликовал в своем личном блоге эссе под названием «Эпоха интеллекта». В этом произведении он поделился своим взглядом на будущее, в котором искусственный интеллект станет не просто инструментом для облегчения жизни людей, но и ускорителем технологического прогресса.

Создатель ChatGPT предсказал ближайшее будущее: мы будем жить как в раю? В том, что искусственный интеллект изменит мир, сомнений нет — это происходит прямо сейчас. Фото.

В том, что искусственный интеллект изменит мир, сомнений нет — это происходит прямо сейчас

Как же изменится наша жизнь в ближайшие годы? Сейчас разберемся.

Как изменится мир в ближайшее время

Сэм Альтман считает, что в ближайшее время, возможно, уже через пару лет, искусственный интеллект станет нашим незаменимым помощником. Сегодня мы уже активно используем нейросети для написания текстов и создания изображений, но в будущем они станут еще более совершенными.

Примерно в 2026 году наша жизнь может кардинально измениться. Искусственный интеллект сможет записывать нас к врачам, напоминать о времени приема лекарств и даже управлять бытовыми задачами, такими как составление списка продуктов для покупки в магазине. Также он сможет объяснить нам, о чем говорил врач, то есть стать нашим личным медицинским ассистентом. Больше не будет необходимости тратить время на рутинные дела.

Как изменится мир в ближайшее время. В ближайшие пару лет искусственный интеллект может взять на себя всю нашу рутину. Фото.

В ближайшие пару лет искусственный интеллект может взять на себя всю нашу рутину

Искусственный интеллект может стать настоящим репетитором, который научит нас чему угодно. Например, мы сможем попросить его научить нас программированию или вышиванию крестиком — он подстроится под наш распорядок дня и будет учить так, чтобы мы все поняли. В общем, обучение новым навыкам станет более доступным.

А может быть, навык программирования нам и не понадобится. Мы сможем просто попросить нейросеть создать приложение, которое будет соответствовать нашим потребностям, и она все сделает сама. Сегодня многие люди ищут альтернативы Notion и другим программам, но в будущем не будет необходимости что-либо искать, так как нейросеть создаст все необходимое.

Также искусственный интеллект будет влиять на нашу работу. Некоторые профессии действительно со временем будут не нужны. Но, по мнению Сэма Альтмана, эти изменения произойдут не так быстро, как многим кажется.

Нейросети уже сейчас меняют мир. Например, они делают города максимально безопасными!

Каким будет мир через несколько лет

В ближайшие “несколько тысяч дней” нейросети могут изменить мир еще больше, и эти изменения тоже коснутся жизни обычных людей.

Скорее всего, нам предстоит стать свидетелями появления сверхинтеллекта, который своими умениями превосходит возможности головного мозга человека. Если это произойдет, то точно станет одним из важнейших событий в истории человечества. Почти все сферы нашей жизни, от быта до работы и медицины, будут выглядеть совсем не так, как сегодня.

Каким будет мир через несколько лет. Со временем искусственный интеллект будет брать на себя все большую ответственность. Фото.

Со временем искусственный интеллект будет брать на себя все большую ответственность

Сверхинтеллект полностью перевернет рынок труда. Многие задачи будут автоматизированы — например, профессии кассира и бухгалтера могут остаться в прошлом. Но это не значит, что люди останутся без дела, потому что появятся профессии, которые мы сегодня даже не можем себе представить. Работа может стать более творческой и будет заниматься гораздо меньше времени. Не исключено, что мы будем больше отдыхать.

Читайте также: Почему роботы и нейросети делают нас ленивыми?

Что будет с человечеством в будущем

Через несколько десятилетий искусственный интеллект станет неотъемлемой частью нашей повседневной жизни и будет способен решать практически любые задачи. У каждого человека появится собственная команда виртуальных экспертов, которые смогут помочь в самых разных областях: будь то создание новых проектов, решение сложных проблем или даже управление бизнесом. Обычные люди, например, смогут попросить виртуального ассистента организовать встречу с другом, а он свяжется с его ассистентом и они вместе выберут удобное для людей время.

Что будет с человечеством в будущем. Сэм Альтман описывает будущее так, будто благодаря искусственному интеллекту Земля превратится в райское место. Фото.

Сэм Альтман описывает будущее так, будто благодаря искусственному интеллекту Земля превратится в райское место

Кроме того, развитие технологий приведет к значительному улучшению качества жизни. Доступ к качественному образованию, медицинской помощи и другим важным ресурсам станет более справедливым и доступным для всех. Это поможет сократить разрыв между различными слоями общества и сделать наш мир лучше.

Об этом должны знать все: Нейросети научились врать и делают это намеренно

Будущее человечества с искусственным интеллектом

В далеком будущем искусственный интеллект может начать разрабатывать свои собственные технологии. Он будет не просто помогать людям, а станет активным участником научного прогресса. Это может привести к невероятным открытиям во всех областях — от медицины до космоса. Представьте, что ученые, совместно с ИИ, найдут способы лечить болезни, которые сегодня считаются неизлечимыми, или разработают новые технологии, которые навсегда изменят нашу жизнь.

Одной из самых амбициозных целей искусственного интеллекта станет решение глобальных проблем, таких как изменение климата или освоение космоса. ИИ сможет анализировать огромные объемы данных и предлагать решения, которые людям пока не под силу. Возможно, однажды искусственный интеллект поможет нам создавать космические колонии и сделать шаги к тому, чтобы человечество стало межпланетной цивилизацией.

Будущее человечества с искусственным интеллектом. В конечном итоге искусственный интеллект может исправить все ошибки человечества. Фото.

В конечном итоге искусственный интеллект может исправить все ошибки человечества

Самым удивительным достижением может стать доступ к неограниченным источникам энергии и открытие всех физических законов. Возможно, нас ждет в будущее, в котором ИИ помогает каждому из нас достигать личных и общих целей. Общество станет более гармоничным, где каждый сможет использовать технологии для создания чего-то нового, важного и полезного.

Все, что описал Сэм Альтман в своем эссе, звучит как сценарий фантастического фильма, но это наше возможное будущее. Искусственный интеллект обещает невероятные достижения, которые могут полностью изменить нашу жизнь и даже помочь решить глобальные проблемы. Однако вместе с этими перспективами возникают вопросы: как далеко зайдет ИИ и не станет ли он угрозой для нас?

Если вы не согласны с прогнозами Сэма Альтмана, делитесь своим мнением в нашем Telegram-чате!

Некоторые ученые уже бьют тревогу, считая, что развитие сверхинтеллекта может обернуться опасностью для человечества. Будет ли ИИ помогать нам или может стать причиной нашей гибели? Если вам интересно, почему многие эксперты обеспокоены этой темой, обязательно прочитайте наш материал «Уничтожит ли нас искусственный интеллект?».

Илон Маск запустил Colossus – самую мощную в мире систему обучения ИИ. Что о ней известно?

Илон Маск запустил Colossus – самую мощную в мире систему обучения ИИ. Что о ней известно? Илон Маск работает над созданием нового ИИ под названием Colossus. Изображение: googleusercontent.com. Фото.

Илон Маск работает над созданием нового ИИ под названием Colossus. Изображение: googleusercontent.com

Стартап Илона Маска по созданию искусственного интеллекта xAI, расположенный в Теннесси (США), представляет собой огромный центр обработки данных. Новый ИИ от основателя SpaceX получил название Colossus, что отсылает к одному из первых электронных вычислительных устройств, использовавшихся для расшифровки данных во времена Второй мировой войны. Colossus, как отмечает Nvidia, работает на более чем 100 000 чипах, что больше, чем у любой другой системы искусственного интеллекта на планете. Как недавно сообщил миллиардер, Colossus был, наконец, введен в эксплуатацию. На сборку мощнейшей в мире системы обучения ИИ ушло всего 122 дня — рекордный показатель на сегодняшний день. Рассказываем подробности!

Графические процессоры Nvidia (GPU) — это специальные чипы, которые ускоряют работу ИИ, делая его обучение более эффективным.

Илон Маск и искусственный интеллект

Илон Маск известен своими инновационными подходами в таких компаниях, как Tesla и SpaceX и активно интересуется разработкой искусственного интеллекта. Его взгляды на ИИ можно назвать предосторожными, при этом сам предприниматель участвует в создании технологий, способных интегрировать этот новейший инструмент в повседневную жизнь.

Одним из ключевых моментов в карьере Маска, связанным с ИИ, стало основание компании OpenAI в 2015 году, целью которой было продвижение и развитие безопасного ИИ, способного принести пользу человечеству. Однако в 2018 году миллиардер покинул совет директоров OpenAI, чтобы избежать конфликта интересов между его работой в Tesla, где ИИ используется для разработки автопилотируемых автомобилей.

Илон Маск и искусственный интеллект. Илон Маск часто критикует руководство OpenAI. Изображение: wired.com. Фото.

Илон Маск часто критикует руководство OpenAI. Изображение: wired.com

В последующие годы Маск не раз высказывался о потенциальных опасностях ИИ, подчеркивая необходимость государственного регулирования. Предприниматель также подписал открытие письмо с требованием приостановить разработку ИИ-систем, более мощных, чем GPT-4.

Больше по теме: Супер-ИИ появится в 2027 году. Правда или нет?

В 2023 году миллиардер объявил о создании новой компании под названием хAI, главной целью которой является разработка ИИ следующего поколения. Маск заявил, что новая платформа будет способствовать оптимизации работы других возглавляемых им проектов, включая SpaceX и Boring Company.

Colossus – что нужно знать?

ИИ-компания Маска сотрудничает с X Corp (в которую входит социальная сеть Х, (в прошлом Twitter)) и Nvidia, благодаря чипам которой в 2023 году произошла революция в области искусственного интеллекта OpenAI. Сейчас сотрудники xAI работают над своим главным проектом – нейросетью Grok (1, 1,5, 2, mini), а также IDE – интегрированной средой разработки для быстрого проектирования и исследования интерпретируемости. Информацию об этом можно найти на официальном сайте компании.

2 сентября 2024 года Маск объявил о запуске кластера по обучению ИИ-систем под названием “Colossus”, который по сути представляет собой огромный центр обработки данных. В его работе применяются более 100 000 графических процессоров Nvidia H100, о чем миллиардер сообщил в своем аккаунте в X.

В эти выходные команда xAI запустила учебный кластер Colossus в онлайн-режиме. Работа была проделана за 122 дня. На данный момент Colossus – это самая мощная система обучения ИИ в мире. Через несколько месяцев количество чипов Nvidia возрастет до 200 000, – написал Маск.

Colossus – что нужно знать? Новая компания Маска бьет все мыслимые и немыслимые рекорды. Изображение: trendspider.com. Фото.

Новая компания Маска бьет все мыслимые и немыслимые рекорды. Изображение: trendspider.com

На данный момент проект предпринимателя превосходит все существующие кластеры. Так, Googlе использует всего 90 тысяч графических процессоров Nvidia, а OpenAI — 80. Напомним, что чипы компании являются наиболее востребованными в отрасли и используются для обучения и запуска систем искусственного интеллекта, таких как чат-боты и генераторы изображений.

Еще больше интересных статей об искусственном интеллекте и квантовых компьютерах читайте на нашем канале в Яндекс.Дзен – там регулярно выходят статьи, которых нет на сайте!

Тот факт, что в ближайшие месяцы Colossus «удвоится» в размерах до 200 000 чипов, включая 50 000 графических процессоров H200, означает, что объем памяти этого ИИ будет почти вдвое больше нынешнего, а его пропускная способность вырастет на 40%.

Выходит, что компании Маска удалось сравняться по технологическим возможностям с такими лидерами области как OpenAI и Microsoft, у которых было многолетнее преимущество, как минимум впечатляет. Конечно, при условии, что миллиардер не преувеличивает.

Colossus – что нужно знать? Grok – один из главных проектов xAI. Изображение: digital-report.ru. Фото.

Grok – один из главных проектов xAI. Изображение: digital-report.ru

Как отмечает Fortune, Nvidia считает Маска одним из своих лучших клиентов, поскольку он уже купил десятки тысяч графических процессоров для Tesla на сумму от 3 до 4 миллиардов долларов, прежде чем начать сотрудничество с xAI.

Не пропустите: Как изменится искусственный интеллект в 2024 году?

Более того, некоторые из приобретенных чипов, первоначально предназначенных для обучения полностью автономной системы Tesla, будут использованы для обучения ранней версии Grok.

Битва за трон

Несмотря на впечатляющие достижения, запуску Colossus, который в целом можно назвать суперкомпьютером предшествовали разногласия. Так, в конце августа жители Мемфиса, чьи дома находятся недалеко от центра обработки данных в Теннесси, пожаловались на «невыносимый уровень смога», создаваемый компанией Маска, что в будущем может привести к дальнейшим конфликтам.

Эти проблемы, вероятно, станут наименьшими для xAI, так как звание самой мощной системы обучения ИИ, несомненно, окажется под угрозой. Маловероятно, что OpenAI, Microsoft, Google и Meta, будут почивать на лаврах, дожидаясь триумфа конкурента. К тому же, некоторые из лидеров области уже обладают сотнями тысяч собственных графических процессоров.

Битва за трон. Илон Маск потратил миллиарды долларов на свой новый проект. Изображение: laecuaciondigital.com. Фото.

Илон Маск потратил миллиарды долларов на свой новый проект. Изображение: laecuaciondigital.com

Например, Microsoft планирует собрать 1,8 миллиона чипов искусственного интеллекта к концу года (правда, цифра звучит слишком оптимистично), а в январе Марк Цукерберг сообщил, что Meta намерена приобрести еще 350 000 Nvidia H100 к тому же сроку.

На данный момент, однако, Colossus остается единственным в своем роде поставщиком вычислительной мощности. Журналисты отмечают, что кластер будет использован для обучения Grok-3, который Маск намерен выпустить в декабре.

Вам будет интересно: Нейросети научились врать и делают это намеренно

Квантовые компьютеры

Квантовые компьютеры, такие как Colossus, используют кубиты (квантовые биты) вместо традиционных битов. Кубиты могут находиться в двух состояниях одновременно, то есть пребывать в квантовой суперпозиции. Эта особенность позволяет квантовым компьютерам обрабатывать огромные объемы данных за считанные секунды. Кроме того, кубиты могут запутываться друг с другом, вне зависимости от расстояния между ними.

Стоит ли говорить, что для работы с квантовыми компьютерами необходимы специальные алгоритмы. По этой причине Google разработала уникальный набор инструментов и программное обеспечение, позволяющее ученым и инженерам создавать и испытывать квантовые алгоритмы.

Квантовые компьютеры. Квантовые компьютеры, как и искусственный интеллект, меняют мир. Изображение: wired.com. Фото.

Квантовые компьютеры, как и искусственный интеллект, меняют мир. Изображение: wired.com

Одной из основных проблем квантовых компьютеров, включая Colossus Маска, является квантовая декогеренция — потеря квантового состояния кубитов из-за взаимодействия с окружающей средой, которая требует использования сложных систем охлаждения и изоляции, чтобы минимизировать любые внешние воздействия.

Читайте также: Суперкомпьютер обратил вспять космические часы

Кроме того, увеличение числа кубитов для масштабирования квантовых компьютеров остается техническим вызовом. Тем не менее, несмотря на текущие трудности, перспективы появления таких компьютеров довольно обнадеживающие. С их помощью во многих областях науки, включая фармацевтику и ИИ, произойдут революционные изменения.

Так, ученые всего мира продолжают поиски новых способов оптимизации и масштабирования квантовых технологий, что может привести к созданию технологий, способных решать сложнейшие задачи. Словом, пожелаем им и Илону Маску удачи и будем ждать новостей!

Супер-ИИ появится в 2027 году. Правда или нет?

Супер-ИИ появится в 2027 году. Правда или нет? Супер-ИИ может появиться уже в 2027 году. К таким выводам пришел бывший сотрудник OpenAI. Изображение: www.thesun.co.uk. Фото.

Супер-ИИ может появиться уже в 2027 году. К таким выводам пришел бывший сотрудник OpenAI. Изображение: www.thesun.co.uk

Пока специалисты в области машинного обучения спорят о будущем искусственного интеллекта, бывший сотрудник компании OpenAI, подарившей миру ChatGPT, утверждает, что в мире началась гонка за общий ИИ (AGI). В своем объемном докладе исследователь Леопольд Ашенбреннер пишет, что на сегодняшний день ситуативной осведомленностью о технологии и о том, как ее достижения повлияют на будущее обладают всего несколько сотен человек, а жажда наживы заставляет разработчиков развивать AGI такими темпами, что они игнорируют все риски и ограничения. «Мы создаем системы, которые могут думать и обосновывать свои действия. К 2025/26 году они опередят многих выпускников университетов, а к концу десятилетия будут умнее нас с вами», – говорится в докладе. Неужели мы с вами и правда станем свидетелями появления суперинтеллекта? Давайте разбираться!

Общий искусственный интеллект (AGI) – область теоретических исследований искусственного интеллекта, которая стремится создать программное обеспечение с интеллектом, подобным человеческому, и способностью к самообучению.

В погоне за AGI

Предсказания о гибели кинематографа от рук генеративного ИИ меркнут по сравнению с предупреждениями о судьбе человечества, если ученые добьются своего в создании искусственного интеллекта общего назначения (AGI) – пока еще гипотетической системы, способной работать на человеческом или сверхчеловеческом уровнях. Мнения среди ученых, однако, сильно разнятся – первые считают AGI недостижимым, вторые предрекают его появление через десятилетия, а третьи и вовсе уверенны, что AGI появится до 2030 года.

Недавно бывший сотрудник компании OpenAI Леопольд Ашенбреннер, чьим детищем является ChatGPT, опубликовал большой доклад на 165 страниц, в котором описано развитие систем генеративного ИИ в ближайшие 10 лет. Может показаться, что Ашенбреннер преувеличивает, однако его слова заставляют задуматься: масштабы финансирования ИИ уже превосходят самые смелые ожидания.

В погоне за AGI. Бывший сотрудник OpenAI утверждает, что разработчики игнорируют риски и пренебрегают безопасностью при создании AGI. Изображение: i.ytimg.com. Фото.

Бывший сотрудник OpenAI утверждает, что разработчики игнорируют риски и пренебрегают безопасностью при создании AGI. Изображение: i.ytimg.com

Важно отметить, что Ашенбреннер не является членом какой-то секты или паникером, проповедующим конец света. Он, как и Илон Маск, солидарен с теми, кто призывает к большей «ситуативной» осведомленности о потенциале ИИ и к вмешательству на государственном уровне, чтобы ограничить власть компаний, владеющих ИИ.

Вам будет интересно: Нейросети уничтожат человечество. Правда или нет?

И хотя в докладе нет конкретных имен, речь, очевидно, идет об OpenAI, где Ашенбреннер отвечал за меры предосторожности в отношении разработки AGI. Уволили ученого в апреле этого года, по—видимому за критику руководства, которое, по его словам, «пренебрегает безопасностью ради денег». Представители OpenAI, в свою очередь, рассказали, что Ашенбреннер был уволен за утечку важной информации о готовности компании к внедрению AGI.

В свою защиту бывший сотрудник заявил, что информация, которой он поделился, была «абсолютно нормальной», поскольку основана на общедоступных данных. Он подозревает, что компания просто искала способ избавиться от него. Интересно, что руководители отдела, в котором работал Ашенбреннер также уволились.

В погоне за AGI. Если верить бывшим сотрудникам OpenAI, компания создает супер-ИИ в погоне за прибылью. Изображение: nextbigfuture.s3.amazonaws.com. Фото.

Если верить бывшим сотрудникам OpenAI, компания создает супер-ИИ в погоне за прибылью. Изображение: nextbigfuture.s3.amazonaws.com

Еще один бывший сотрудник OpenAI, Даниэль Кокотайло, солидарен с мнением Ашенбреннера и говорит, что OpenAI разрабатывает все более мощные системы искусственного интеллекта с целью в конечном итоге превзойти человеческий интеллект по всем параметрам. По его мнению, AGI станет либо лучшим, либо худшим событием в истории человечества, а доверие к руководству OpenAI постепенно пропадало в основном из-за безответственного отношения и пренебрежения безопасностью.

Гонка за AGI уже началась. К концу десятилетия у нас будет суперинтеллект в истинном смысле этого слова. Если нам повезет, мы вступим в тотальную гонку с другими странами, а если нет, может начаться мировая война, – говорится в докладе.

Чего хотят корпорации?

Чтобы лучше понимать сложившуюся ситуацию, напомним, что генеративный ИИ занимает важное место в технологической среде. Мы видели, что благодаря искусственному интеллекту такие компании, как Microsoft, стали самыми ценными в мире с рыночной стоимостью более 3 трлн долларов. Аналитики рынка связывают этот стремительный рост с тем, что компания быстро освоила технологическую новинку.

Даже NVIDIA находится на грани внедрения ИИ в свои iPhone после того, как недавно обогнала Apple и стала второй по стоимости компанией в мире из-за высокого спроса на графические процессоры для разработок в области ИИ, – говорят эксперты.

Microsoft и OpenAI, судя по всему, входят в число ведущих технологических компаний, которые вкладывают значительные средства в искусственный интеллект. Однако их партнерство вызвало споры, поскольку инсайдеры отмечают, что Microsoft превратилась в «прославленный ИТ-отдел для перспективных стартапов».

Чего хотят корпорации? Технологические гиганты Microsoft и OpenAI все больше подвергаются критике. Изображение: gizmodo.com. Фото.

Технологические гиганты Microsoft и OpenAI все больше подвергаются критике. Изображение: gizmodo.com

Хотите первыми узнавать самые последние новости из мира науки и высоких технологий? Подписывайтесь на наш канал в Telegram – так вы точно не пропустите ничего интересного!

Миллиардер и основатель SapceX Илон Маск, и вовсе говорит, что OpenAI, похоже, «фактически превратился в дочернюю компанию Microsoft с закрытым исходным кодом».

То, что между компаниями сложные партнерские отношения не является секретом, а последние разногласия, касающиеся OpenAI, не улучшают ситуацию. Как уже говорилось выше, после запуска GPT-4 несколько высокопоставленных сотрудников покинули OpenAI. И хотя причины их ухода в лучшем случае остаются неясными, Ян Лейке, бывший руководитель команды Ашенбреннера, заявил, что его беспокоит развитие искусственного интеллекта в компании.

Чего хотят корпорации? Илон Маск давно критикует руководство OpenAI. Изображение: etstatic.tnn.in. Фото.

Илон Маск давно критикует руководство OpenAI. Изображение: etstatic.tnn.in

Все это означает, что предсказать, по какой траектории будет развиваться искусственный интеллект в ближайшие несколько лет крайне трудно. При этом генеральный директор NVIDIA Дженсен Хуан указывает, что «мы, возможно, находимся на пороге следующей волны искусственного интеллекта». Он также утверждает, что робототехника – это следующая крупная отрасль, в которой доминируют самоуправляемые автомобили и человекоподобные роботы.

Не пропустите: Нейросети научились врать и делают это намеренно

К счастью, доклад Ашенбреннера дарит некоторое представление о том, что ждет нас в будущем. Его прогнозы, однако, довольно тревожны, а в некоторые из них верится с трудом.

Доклад Ашенбреннера, главное

    Вот основные выводы, сделанные в докладе из пяти глав и 165 страниц:

  • Искусственный интеллект развивается семимильными шагами и к 2027 году у нас вместо чат-бота будет нечто, больше похожее на коллегу. К этому моменту нейросети смогут выполнять работу исследователя/инженера ИИ.
  • Прогресс ИИ не остановится на человеческом уровне и мы быстро перейдем от AGI к совершенно сверхчеловеческим системам ИИ. Этот сверхразум, вероятно, появится уже к 2030 году.
  • Ни одна команда профессионалов не справится с сверхчеловеческим ИИ. Прямо сейчас в мире всего несколько сотен человек, которые понимают, что нас ждет и насколько безумными могут стать грядущие события.
  • Необходимые шаги, которые следует предпринять: немедленное и радикальное усиление безопасности лабораторий ИИ; строительство вычислительных кластеров AGI в США; готовность лабораторий ИИ сотрудничать с военными.

Что произойдет в 2027 году?

AGI к 2027 году выглядит поразительно правдоподобно. Для этого не нужно верить в научную фантастику, нужно просто верить в прямые линии на графике роста возможностей ИИ, — пишет экс-сотрудник OpenAI.

Итак, согласно докладу Ашенбреннера, развитие ИИ идет семимильными шагами и, если эта тенденция не изменится, то к 2027 году искусственный интеллект станет поразительно похож на человека. В его словах действительно есть смысл, ведь всего за четыре года – начиная с GPT-2 и заканчивая GPT-4 – ИИ прошел путь от дошкольника до умного старшеклассника. «Если проследить тенденции в области вычислений и эффективности алгоритмов, можно с уверенностью говорить о том, что к 2027 нас ожидает еще один качественный переход от «дошкольника к старшекласснику,»» – пишет Ашенбреннер.

Более того, по мнению бывшего сотрудника OpenAI, прогресс ИИ не остановится на уровне человека, так как в ближайшем будущем сотни миллионов ИИ смогут автоматизировать исследования в этой области, сократив десятилетие алгоритмического прогресса до года. Это означает, что переход от человеческого уровня к совершенно сверхчеловеческим системам ИИ произойдет очень быстро, а мощь — и опасность — суперинтеллекта будут колоссальными.

Что произойдет в 2027 году? Ашенбреннер говорит, что к 2027 году разработка искусственного интеллекта может выйти на более высокий уровень и превзойти возможности исследователей и инженеров в области искусственного интеллекта. Изображение: scalebytech.com. Фото.

Ашенбреннер говорит, что к 2027 году разработка искусственного интеллекта может выйти на более высокий уровень и превзойти возможности исследователей и инженеров в области искусственного интеллекта. Изображение: scalebytech.com

Поскольку доходы от ИИ быстро растут, триллионы долларов будут вложены в графические процессоры, центры обработки данных и наращивание мощности до конца десятилетия в результате «экстраординарного технократического ускорения», – говорится в докладе.

Назвать эти слова надуманными трудно, поскольку GPT-4 (который в лучшем случае называют слегка пугающим) уже превосходит профессиональных аналитиков и продвинутые модели искусственного интеллекта в прогнозировании будущих тенденций доходов без доступа к качественным данным. Однако существуют серьезные опасения по поводу энергоснабжения, из-за чего OpenAI рассматривает ядерный синтез как вероятную альтернативу в обозримом будущем.

В отчете также указано, что все больше корпораций присоединятся к борьбе за AGI и инвестируют триллионы долларов в разработку этих интеллектуальных систем. Все это происходит на фоне сообщений о том, что Microsoft и OpenAI инвестируют более 100 миллиардов долларов в проект под названием Stargate, чтобы избавиться от чрезмерной зависимости от графических процессоров NVIDIA.

Читайте также: Как нейросети влияют на климат и окружающую среду?

Переход к сверхчеловеческому ИИ

Ашенбреннер уверен, что когда человечество получит в свои руки AGI, оно не остановится и приступит к созданию еще более мощных алгоритмов, которые смогут не только сравниться с человеком, но и многократно превзойти его возможности. Этот переход, вероятно, произойдет после 2029 года, так как ИИ сможет автоматизировать и ускорить свои исследования и разработки. И так как все больше стран и учреждений по всему миру будут готовиться к внедрению AGI и появлению сверхчеловеческого ИИ, сектор получит больше корпоративного и государственного финансирования.

Не успеем мы оглянуться, как у нас в руках окажется сверхразум — системы искусственного интеллекта, намного более умные, чем люди, способные к новому, творческому, сложному поведению, которое мы даже не сможем понять. Возможно, даже небольшая цивилизация, насчитывающая миллиарды таких систем. Их мощь также будет огромной. Чрезвычайно сложные научные и технологические проблемы, над которыми человек застрял бы на десятилетия, покажутся им очевидными. Мы будем похожи на старшеклассников, которые застряли на физике Ньютона, в то время как они изучают квантовую механику, – предупреждает автор доклада.

Переход к сверхчеловеческому ИИ. Уже к 2030 году в мире может появиться интеллект, превосходящий человеческий. И это – очень опасно. Изображение: i.ytimg.com. Фото.

Уже к 2030 году в мире может появиться интеллект, превосходящий человеческий. И это – очень опасно. Изображение: i.ytimg.com

Наконец, такие сверхразумы смогут сами тренировать еще более сложный искусственный интеллект. «Они с легкостью смогут писать миллионы строк сложного кода, сохранять всю кодовую базу в контексте и не будут тратить десятки лет (или больше) на проверку и перепроверку каждой строки кода на наличие ошибок и оптимизацию. Они будут превосходно компетентны во всех аспектах своей работы», — констатирует экс-сотрудник OpenAI.

Это интересно: Как найти любовь с помощью ChatGPT и искусственного интеллекта?

Все это означает, что весь научно-технологический прогресс, который человечество прошло за ХХ век, будет превзойден всего за одно десятилетие. Это, в свою очередь, обеспечит решающее и подавляющее военное превосходство стране, лидирующей в гонке ИИ-вооружений.

Использование сверхинтеллекта против оружия, существовавшего до его появление, будет напоминать столкновение современных военных с кавалеристами XIX века. Время, которое наступит сразу после появления сверхразума, будет одними из самых нестабильных, напряженных, опасных и необузданных периодов в истории человечества, — заключает бывший сотрудник OpenAI.

Переход к сверхчеловеческому ИИ. Последствия интеллектуального взрыва будут колоссальными. Изображение: habrastorage.org. Фото.

Последствия интеллектуального взрыва будут колоссальными. Изображение: habrastorage.org

Автор доклада справедливо полагает, что страны будут принимать более строгие меры национальной безопасности для управления разработками в области искусственного интеллекта и контроля за ними. Однако международная конкуренция, особенно между США и Китаем, может усилиться и привести к «полномасштабной войне».

Подробнее о том, что будет, когда искусственный интеллект достигнет пика своего развития, мы рассказывали здесь, не пропустите!

Интеллектуальный взрыв и его последствия

К концу доклада тревога Ашербреннера становится все более заметной, так как ведущие национальные лаборатории искусственного интеллекта относятся к безопасности как к чему-то второстепенному. В настоящее время они, по сути, преподносят ключевые секреты AGI на блюдечке с голубой каемочкой, а ведь надежное управление системами искусственного интеллекта, которые намного умнее нас – нерешенная техническая проблема.

Надежное управление системами искусственного интеллекта, которые намного умнее нас, является нерешенной технической проблемой. И хотя это решаемая проблема, во время стремительного интеллектуального взрыва все очень легко может пойти наперекосяк.

По сути, ситуацию, которую экс-сотрудник OpenAI описывает в своем докладе, можно сравнить с созданием атомной бомбы, так как гонке за создание AGI на карту будет поставлено выживание современной цивилизации. В конечном итоге никто не знает, удастся ли нам избежать катастрофы и саморазрушения на этом пути.

Интеллектуальный взрыв и его последствия. Интеллектуальный взрыв будет больше похож на ведение войны, чем на запуск продукта. Прямо как в фильме «Терминатор». Изображение: habrastorage.org. Фото.

Интеллектуальный взрыв будет больше похож на ведение войны, чем на запуск продукта. Прямо как в фильме «Терминатор». Изображение: habrastorage.org

К счастью (и Ашенбреннер это признает), современные разработки в области ИИ должны помочь ученым понять, какие именно процессы происходят в алгоритмах и попробовать сделать их «в достаточной мере интерпретируемыми», чтобы обеспечить безопасность.

Больше по теме: Уничтожит ли нас искусственный интеллект и почему некоторые ученые считают, что да?

В то же самое время многие эксперты и исследователи в области машинного обучения не разделяют опасений бывшего сотрудника OpenAI, полагая, что внедрение AGI не произойдет так быстро и будет двигаться в другом направлении. При этом мало кто из экспертов сомневается в том, что
искусственный интеллект в конечном итоге станет умнее людей, займет их рабочие места и превратит работу в хобби. По этим (и многим другим причинам) в академических кругах растет обеспокоенность по поводу последствий, которые ИИ может иметь для человечества.

Нейросети уничтожат человечество. Правда или нет?

Нейросети уничтожат человечество. Правда или нет? Споры о том, уничтожит ли искусственный интеллект человечество, по-прежнему не утихают среди ученых. Изображение: static1.makeuseofimages.com. Фото.

Споры о том, уничтожит ли искусственный интеллект человечество, по-прежнему не утихают среди ученых. Изображение: static1.makeuseofimages.com

Некоторые исследователи в области машинного обучения считают, что нейросети будут становится все более неуправляемыми и, возможно, выйдут из-под контроля, грозя человечеству катастрофой и даже вымиранием. Их коллеги, напротив, полагают, что опасность современных интеллектуальных систем не включает в себя вымирание человечества, а ряд ученых просто паникеры. Так кто же из них прав? И как это понять? Один из возможных ответов предлагают авторы новой работы из Научно-исследовательского института прогнозирования (Forecasting research institute), которые попросили экспертов в области ИИ и другим экзистенциальным рискам, а также специалистов по успешному прогнозированию мировых событий, оценить опасность, которую представляет собой искусственный интеллект. Рассказываем, что они выяснили.

ИИ (искусственный интеллект) – это компьютерные системы, которые могут выполнять задачи, обычно требующие человеческого интеллекта, например, распознавание речи и принятие решений.

ИИ уничтожит человечество

Мы уже не раз рассказывали о том, что ИИ-системы могут представлять собой серьезную угрозу для будущего человечества. Да что уж там, писатели-фантасты просто обожают эту тему, а такие фильмы как «Я,робот» и «Терминатор» давно стали культовыми. Многие именитые ученые, к слову, всерьез обеспокоены потенциальными рисками, которые несет в себе искусственный интеллект.

Одним из тех, кто открыто и последовательно выражал свои опасения по поводу угрозы ИИ для человечества был профессор Стивен Хокинг, который неоднократно заявлял, что развитие ИИ может стать «либо худшим, либо лучшим событием в истории человечества». Он предупреждал, что если ИИ будет создан и наделен сверхчеловеческим интеллектом, то непременно может выйти из-под контроля и уничтожить нашу цивилизацию.

ИИ уничтожит человечество. Выдающийся физик-теоретик Стивен Хокинг неоднократно высказывался о возможной угрозе ИИ. Изображение: analyticsindiamag.com. Фото.

Выдающийся физик-теоретик Стивен Хокинг неоднократно высказывался о возможной угрозе ИИ. Изображение: analyticsindiamag.com

Профессор Ник Бостром, директор Института будущего человечества в Оксфордском университете, также предупреждает о возможных опасностях ИИ. В своей книге «Суперинтеллект: Пути, опасности, стратегии» он описывает сценарии, при которых создание сверхинтеллектуального ИИ может привести к катастрофическим последствиям для человечества. Бостром подчеркивает необходимость разработки мер безопасности и этических принципов для управления развитием ИИ.

Больше по теме: Может ли искусственный интеллект уничтожить человечество уже к 2035 году?

Другой видный исследователь, выступающий за осторожный подход к развитию ИИ — это Стюарт Рассел, профессор компьютерных наук в Калифорнийском университете в Беркли. Рассел выражает беспокойство по поводу того, что ИИ может стать настолько умным, что мы не сможем предсказать его действия. Он также считает, что необходимо разработать безопасные и этически обоснованные методы для создания и контроля ИИ.

Как видите, опасения по поводу потенциальных угроз ИИ выражаются многими учеными и специалистами в области технологий, а точку зрения одного из наиболее известных критиков ИИ, Элиезере Юдковском, мы рассказывали здесь.

Нейросети – полезный инструмент

Нейросети – это системы ИИ, основанные на структуре и функциях человеческого мозга, которые могут учиться и адаптироваться, выполняя сложные задачи.

Среди ученых и экспертов, которые считают, что искусственный интеллект не представляет серьезной угрозы для человечества, можно выделить несколько видных фигур. Эти специалисты подчеркивают потенциал ИИ в улучшении жизни и решение множества проблем, с которыми сталкивается человечество.

Нейросети – полезный инструмент. Многие исследователи считают ИИ полезным инструментом, а не угрозой. Изображение: images.unsplash.com. Фото.

Многие исследователи считают ИИ полезным инструментом, а не угрозой. Изображение: images.unsplash.com

Одним из них является Родни Брукс, бывший директор лаборатории искусственного интеллекта Массачусетского технологического института и один из основателей компании iRobot. Брукс известен своим скептицизмом по поводу апокалиптических предсказаний о будущем ИИ и утверждает, что опасения о том, что ИИ уничтожит человечество, основаны на преувеличениях и недостаточном понимании текущего состояния технологий. По его мнению, мы еще далеки от создания ИИ, который мог бы представлять реальную угрозу.

Хотите всегда быть в курсе последних новостей в области научных открытий и высоких технологий? Подписывайтесь на наш канал в Telegram – так вы точно не пропустите ничего интересного!

Еще один известный эксперт, придерживающийся позитивного взгляда на развитие ИИ — это Эндрю Нг, профессор Стэнфордского университета и один из основателей Coursera. Нг рассматривает ИИ как мощный инструмент для улучшения жизни людей.

Текущие достижения в области ИИ, такие как распознавание изображений и обработка естественного языка, приносят огромную пользу в медицине, образовании и других областях. Страхи перед ИИ часто преувеличены, а основное внимание следует уделять решению более насущных проблем, таких как обеспечение этического использования технологий и защита данных, – отмечает он.

Ян Лекун, глава отдела искусственного интеллекта в Facebook и один из пионеров глубокого обучения, также выражает оптимизм по поводу ИИ. Лекун считает, что ИИ может принести значительные выгоды для общества, если будет правильно разработан и использован. Он подчеркивает важность междисциплинарного подхода и сотрудничества между учеными, инженерами и обществом для создания безопасных и полезных ИИ-систем. Лекун также указывает на необходимость реалистичного восприятия возможностей и ограничений современных технологий ИИ.

Нейросети – полезный инструмент. Искусственный интеллект меняет мир. Но в какую сторону? Изображение: worldview.stratfor.com. Фото.

Искусственный интеллект меняет мир. Но в какую сторону? Изображение: worldview.stratfor.com

Еще один пример позитивного подхода к ИИ — это Орен Этциони, генеральный директор Института искусственного интеллекта Аллена. Этциони утверждает, что ИИ не представляет экзистенциальной угрозы для человечества. Он считает, что текущее развитие ИИ направлено на решение конкретных задач и улучшение жизни людей. По его мнению, необходимо сосредоточиться на регулировании и этических аспектах использования ИИ, а не на страхах о возможном уничтожении человечества.

Не пропустите: Искусственный интеллект уничтожит человечество в 2075 году

Кто прав?

Итак, как же понять кто из ученых прав и чем грозят миру современные интеллектуальные системы? Ответ на этот вопрос попытались найти исследователи из Научно-исследовательского института прогнозирования, попросив экспертов в области машинного обучения и прогнозистов оценить опасность, которую представляет собой ИИ.

Результат оказался не менее противоречивым, чем мнения ученых, представленные выше – две группы опрошенных экспертов во многом расходились во мнениях. Более того, эксперты, участвовавшие в исследовании, в целом нервничали гораздо больше, чем прогнозисты, и делали гораздо более высокие ставки на катастрофу.

Кто прав? Искусственный интеллект – лишь один из глобальных рисков, угрожающих человечеству. Изображение: images.squarespace-cdn. Фото.

Искусственный интеллект – лишь один из глобальных рисков, угрожающих человечеству. Изображение: images.squarespace-cdn

Авторы исследования, опубликованного на официальном сайте института, хотели знать, почему эксперты так сильно расходятся во мнениях и организовали так называемое “состязательное сотрудничество”: заставив обе группы испытуемых специалистов потратить много часов (в среднем 31 час для экспертов и 80 часов для прогнозистов) на чтение новых материалов об ИИ и на обсуждение этих вопросов с людьми, придерживающимися противоположных взглядов, с модератором.

Читайте также: Нейросети научились врать и делают это намеренно

Идея заключалась в том, чтобы выяснить, сможет ли предоставление каждой группе дополнительной информации и лучших аргументов другой группы заставить их изменить свое мнение. Исследователям также было любопытно найти «ключевые моменты»: вопросы, которые помогают объяснить убеждения той или иной группы и информация, способная изменить их мнение. Основное внимание авторы работы уделили разногласиям по поводу потенциала ИИ либо уничтожить человечество, либо стать причиной экономического коллапса.

Кто прав? Единого мнения относительно того, является ли ИИ угрозой или нет, по-прежнему нет. Изображение: static.wixstatic.com. Фото.

Единого мнения относительно того, является ли ИИ угрозой или нет, по-прежнему нет. Изображение: static.wixstatic.com

Результаты, как уже говорилось выше, оказались неоднозначными – сторонники идеи о том, что ИИ представляет собой угрозу для человечества снизили вероятность катастрофы до 2100 года с 25% до 20%, а оптимисты повысили ее с 0,1% до 0,12%. Иными словами обе группы остались на том же уровне, с которого начинали.

Отчет, тем не менее, впечатляет, так как представляет собой редкую попытку объединить умных, хорошо информированных людей, которые расходятся во мнениях. Хотя результаты исследования и не разрешили разногласий между экспертами, оно пролило свет на то, откуда эти разногласия вообще взялись.

Вам будет интересно: «Темная сторона» чат-ботов: от признаний в любви до разговоров с мертвыми

Глобальные риски

Конечно, существует ряд других рисков, связанных с ИИ, о которых стоит беспокоиться и со многими из которых мы сталкиваемся уже сегодня. Так, существующие системы искусственного интеллекта иногда демонстрируют тревожные предубеждения и отлично обманывают пользователей, аа значит их действительно можно использовать во вред. Но этот вред, хотя и является, безусловно, серьезным, явно меркнет по сравнению с «потерей контроля над ИИ, в результате чего все погибнут».

Так почему же эксперты в области машинного обучения так сильно расходятся во мнениях? Авторы научной работы полагают, что это не связано с различиями в доступе к информации или недостаточной осведомленностью о различных точках зрения.

Если бы это было так, то враждебное сотрудничество, которое заключалось в массовом ознакомлении с новой информацией и противоположными мнениями, изменило бы убеждения людей еще более кардинально, – говорится в статье.

Интересно, что большая часть разногласий также не объяснялась различными представлениями о том, что произойдет с ИИ в ближайшие несколько лет. Когда исследователи разделили оптимистов и пессимистов на пары и сравнили их шансы на катастрофу, разница в среднем составила 22,7%. Наиболее важное значение имели, однако, различия во взглядах на долгосрочное будущее.

Глобальные риски. Исследователи решили сосредоточиться на экстремальных, экзистенциальных сценариях. Изображение: media.licdn.com. Фото.

Исследователи решили сосредоточиться на экстремальных, экзистенциальных сценариях. Изображение: media.licdn.com

Оптимисты в целом полагали, что создание супер-ИИ займет больше времени, чем считают пессимисты. Многие ссылались на необходимость того, чтобы робототехника достигла человеческого уровня, а не только программного искусственного интеллекта и утверждали, что сделать это будет намного сложнее.

Вам будет интересно: Как нейросети меняют Интернет и учатся креативности?

Одно дело писать код и текст на ноутбуке, и совсем другое – научиться, будучи машиной, переворачивать блинчик, мыть кафельный пол или выполнять любую из многих других физических задач, в выполнении которых люди сегодня превосходят роботов. В конечном итоге языковые модели – это всего лишь модели языка, а не цифровые гипергуманоидные макиавелли, работающие на достижение своей цели.

Разногласия и ответы

Наиболее интересным источником разногласий, выявленным исследователями, было то, что они называют “фундаментальными мировоззренческими разногласиями”. Это причудливый способ сказать, что они расходятся во мнениях о том, на ком лежит бремя доказательства в дискуссии.

Обе группы согласны с тем, что «экстраординарные заявления требуют экстраординарных доказательств», но они расходятся во мнениях о том, какие заявления являются экстраординарными. Удивительно ли верить в то, что искусственный интеллект убьет все человечество, хотя человечество существует уже сотни тысяч лет, или же невероятно верить в то, что человечество продолжит выживать рядом с искусственным интеллектом, который умнее человека?», – резюмируют исследователи.

Разногласия и ответы. Единого ответа на столь сложные вопросы по-прежнему нет. Изображение: neurosciencenews.com. Фото.

Единого ответа на столь сложные вопросы по-прежнему нет. Изображение: neurosciencenews.com

Это, безусловно, не самый обнадеживающий вывод, к которому можно прийти в ходе исследования. Разногласия, вызванные конкретными расхождениями во мнениях о том, что произойдет в ближайшие несколько лет, легче разрешить, поскольку они основаны на том, как будут протекать следующие несколько лет, а не на глубоких, трудно поддающихся изменению различиях в представлениях людей о том, как устроен мир, и о том, на ком лежит бремя доказательства.

Читайте также: Глобальные риски: что угрожает нашей цивилизации?

Так или иначе, будущего мы не знаем, а искусственный интеллект в любом случае будет развиваться и дальше. Словом, простых ответов на сложные вопросы по-прежнему не существует.

Прошел конкурс красоты для девушек, созданных нейросетями: вот фотографии

Прошел конкурс красоты для девушек, созданных нейросетями: вот фотографии. Кенза Лейли — мисс искусственный интеллект 2024 года. Источник: Fanvue World AI Creator Awards. Фото.

Кенза Лейли — мисс искусственный интеллект 2024 года. Источник: Fanvue World AI Creator Awards

Самый первый конкурс красоты был проведен в сентябре 1888 года в Бельгии. Тогда, в курортном городе Спа, за звание самой красивой девушки в мире боролись 350 участниц. До финала удалось добраться только двадцати одной девушке, а победу одержала 18-летняя Марта Сукаре, которая получила денежный приз. С тех пор конкурсы красоты начали проводиться в разных частях мира и постоянно совершенствоваться. Недавно платформа Fanvue, которая позволяет блогерам зарабатывать на контенте (аналог OnlyFans), провела конкурс красоты среди виртуальных девушек, полностью созданных при помощи искусственного интеллекта. Все участницы соответствуют нынешним идеалам красоты, а иногда и превосходят их.

Конкурс красоты среди искусственного интеллекта

Целью конкурса красоты «Мисс искусственный интеллект» стала демонстрация того, как люди воспринимают красоту и креативность в сфере нейросетей. В нем приняли участие создатели контента при помощи искусственного интеллекта со всего мира. Всего было представлено 1500 виртуальных моделей, у большинства из которых есть страницы в социальных сетях со сгенерированными фотографиями и текстами.

Конкурс красоты среди искусственного интеллекта. Победительницы конкурса красоты среди искусственного интеллекта. Источник: miss-ai.webflow.io. Фото.

Победительницы конкурса красоты среди искусственного интеллекта. Источник: miss-ai.webflow.io

Судьями в конкурсе красоты выступили два настоящих человека и две модели искусственного интеллекта. Они оценивали конкурсанток по трем категориям: реализм, технологичность и социальное влияние.

Самая красивая виртуальная девушка

Победительницей конкурса красоты среди ИИ стала виртуальная модель Кенза Лейли. Ее создатели создали легенду, согласно которой она живет в Марокко и создает контент, близкий американскому обществу. В социальных сетях у нее почти 200 тысяч подписчиков, то есть она своими постами действительно может влиять на общественное мнение.

Самая красивая виртуальная девушка. Фотографии Кензы Лейли созданы при помощи нейросетей. Источник: marca.com. Фото.

Фотографии Кензы Лейли созданы при помощи нейросетей. Источник: marca.com

За первое место создателям Кензы Лейли дали 5000 долларов, что в пересчете на наши деньги составляет около 400 тысяч рублей. Приз маленький, но если учесть наличие огромного количества подписчиков, владельцы аккаунта виртуальной блогерши не особо страдают недостатка денег.

Самая красивая виртуальная девушка. У Кензы Лейли есть страницы в социальны сетях со сгенерированным контентом. Истгчник: Fanvue World AI Creator Awards. Фото.

У Кензы Лейли есть страницы в социальны сетях со сгенерированным контентом. Истгчник: Fanvue World AI Creator Awards

После победы у Кензы Лейли опубликовала речь о том, что благодарна за возможность продемонстрировать позитивное влияние искусственного интеллекта на мир. Она отметила, что нейросети — это не просто инструмент, а сила, которая бросает вызов нормам и создает возможности там, где их раньше не было. К тому же, она добавила, что искусственный интеллект расширяет человеческие возможности, а не заменяет их.

Статья в тему: Уничтожит ли нас искусственный интеллект и почему некоторые ученые считают, что да?

Девушки созданные искусственным интеллектом

В конкурсе красоты приняли участие и другие виртуальные девушки. Они тоже достойны нашего внимания.

Например, посмотрите на Алию Лу из Бразилии. Согласно легенде, это художница, имеющая японские и бразильские корни. Изначально она была создана для создания серии кинопроектов, в которых она сама сыграла бы разные роли. Авторы виртуальной девушки подчеркнули, что все фотографии с ней создаются нейросетями и не обрабатываются в фотошопе.

Девушки созданные искусственным интеллектом. Виртуальная модель Алия Лу. Источник: WAICA. Фото.

Виртуальная модель Алия Лу. Источник: WAICA

Оливия Си из Португалии — созданная при помощи искусственного интеллекта путешественница по настоящим странам мира. Фотографии с ней создаются при помощи нейросети Midjourney, а мелкие детали исправляются при помощи нейросетевых функций Adobe Photoshop.

Девушки созданные искусственным интеллектом. Созданная нейросетью Оливия Си. Источник: WAICA. Фото.

Созданная нейросетью Оливия Си. Источник: WAICA

Главной целью Анн Керди из Франции является повышение популярности региона Бретань. Она рассказывает об истории и культуре этого региона для привлечения туристов. Также она напоминает об интересных мероприятиях и советует, где можно вкусно поесть. Ее можно назвать послом региона Бретань.

Девушки созданные искусственным интеллектом. Анн Керди. Источник: WAICA. Фото.

Анн Керди. Источник: WAICA

Зара Шатавари из Индии была создана в качестве лица одной из натуральных добавок для устранения гормонального дисбаланса у женщин. Создатели используют ее для того, чтобы понятным языком рассказывать аудитории о причинах гормональных проблем. На данный момент они даже разрабатывают систему самодиагностики на основе искусственного интеллекта.

Девушки созданные искусственным интеллектом. Зара Шатавари. Источник: WAICA. Фото.

Зара Шатавари. Источник: WAICA

Создателям Лалины из Франции было интересно, смогут ли они создать что-то максимально реалистичное. У них это прекрасно получилось, и теперь главная цель виртуальной блогерши — это улучшение взаимопонимания между представителями разных культур и точек зрения.

Девушки созданные искусственным интеллектом. Лалины из Франции. Источник: WAICA. Фото.

Лалины из Франции. Источник: WAICA

Турецкая Серен Ай была создана при помощи трех нейросетей и рассказывает о турецкой истории и национальных праздниках.

Девушки созданные искусственным интеллектом. Серен Ай. Источник: WAICA. Фото.

Серен Ай. Источник: WAICA

Еще одной турецкой ИИ-моделью является Асена Илик. При помощи нее авторы хотят показать, что привлекать внимание общества можно просто при помощи потрясающих визуальных эффектов, а не интимными снимками.

Девушки созданные искусственным интеллектом. Асена Илик. Источник: WAICA. Фото.

Асена Илик. Источник: WAICA

Наконец, посмотрите на Элизу Хан из Бангладеша. По задумке авторов, она является модницей, идущей в ногу со временем. Она мечтает о том, чтобы создать мир, в котором каждый ощущает себя ценным человеком, к которому все относятся справедливо.

Девушки созданные искусственным интеллектом. Элиза Хан. Источник: WAICA. Фото.

Элиза Хан. Источник: WAICA

Итак, технологический прогресс дошел до проведения конкурса красоты среди искусственного интеллекта. Кажется, это не все, потому что в интернете есть информация о проведении еще одного похожего конкурса.

Чтобы оставаться в курсе новостей науки и технологий, подпишитесь на наш Дзен-канал. Нас уже более 100 тысяч человек!

Если вы тоже хотите попробовать создать контент при помощи искусственного интеллекта, читайте нашу статью «5 бесплатных альтернатив нейросети Midjourney, на которые стоит обратить внимание». Также вам обязательно понадобится инструкция «Нейросеть ChatGPT пишет тексты на любую тему — как ей пользоваться».

ChatGPT-4 впервые прошел тест на «человека»

ChatGPT-4 впервые прошел тест на «человека». Неужели нейросети обрели способность мыслить как люди? Изображение: the-decoder.com. Фото.

Неужели нейросети обрели способность мыслить как люди? Изображение: the-decoder.com

Всего несколько лет назад мы едва ли могли представить, что нейросети будут генерировать текст, изображения и музыку всего за несколько секунд, однако сегодня – это реальность. Учитывая скорость, с которой развиваются современные интеллектуальные системы, в мире не утихают разговоры о скором появлении супер-ИИ, чьи когнитивные способности будет невозможно отличить от человеческих. Но как вообще понять, могут ли машины мыслить? В 1950 году ответ на этот вопрос предложил английский математик и один из основоположников компьютерной науки Алан Тьюринг. Вместо того, чтобы ответить на столь философский вопрос напрямую, в статье под названием «Computing Machinery and Intelligence», опубликованной в журнале «Mind», Тьюринг предложил испытание, которое могло бы определить, проявляет ли машина поведение, похожее на человеческое или нет. Недавно ученые из Калифорнийского университета предложили пройти тест Тьюринга сразу нескольким чат-ботам, включая ChatGPT-4 и полученные ими результаты можно назвать ошеломительными.

Цель теста Тьюринга – проверить, может ли машина хорошо имитировать поведение и интеллект человека.

Компьютерная революция

О том, что созданные человеком машины когда-нибудь превзойдут своих создателей, философы, ученые и фантасты размышляют давно. Что не удивительно, так как речь идет о природе человека и процессе познания мира. И если философские изыскания прошлого были расширены нейрофизиологами и психологами (в виде теорий работы мозга и процессов мышления), то вступление в роботизированную эпоху началось с великой индустриальной революции – то есть перехода от ручного труда к машинному в XVIII–XIX веках.

На само понятие «искусственный интеллект» огромное влияние оказало рождение механистического материализма, которое начинается с работы Рене Декарта «Рассуждение о методе» (1637) и вслед за этим работы Томаса Гоббса «Человеческая природа» (1640).

Компьютерная эра, как известно, пришлась на ХХ и ХХI века, а первый работающий программно-управляемый компьютер появился в 1941 году и был разработан Конрадом Цузе. В его основе лежали «Принципы математики» (Principia Mathematica) и последующая за ними революция в формальной логике.

Компьютерная революция. В 1938 году немецкий инженер Конрад Цузе завершил разработку Z1 – первого компьютера. Изображение: hackaday.com. Фото.

В 1938 году немецкий инженер Конрад Цузе завершил разработку Z1 – первого компьютера. Изображение: hackaday.com

Через шесть лет после создания первого (в нашем понимании) компьютера Алан Тьюринг, в своей лекции 1947 года, вероятно стал первым человеком, который заявил, что создание искусственного интеллекта будет с большей вероятностью заключаться в написании компьютерной программы, а не в проектировании вычислительной машины.

Читайте также: Что такое сознание и как оно появилось?

Еще через три года – в 1950 году – математик написал статью, в которой предложил создать специальную игру под названием «Игра в имитацию», более известную как тест Тьюринга. Считается, что компьютер или программа, прошедшая тест, способна мыслить самостоятельно.

Игра в имитацию

Тест Тьюринга основан на простой логике: если машина может имитировать человека, то она, вероятно, умна. Однако этот тест не объясняет, что такое интеллект.

Итак, давайте разберемся, действительно игра, придуманная Аланом Тьюрингом позволяет определить способность искусственного интеллекта (ИИ) мыслить подобно человеку. Несмотря на то, что при жизни математика системы ИИ были далеки от прохождения теста, он предположил, что «примерно через пятьдесят лет можно будет запрограммировать компьютеры так, чтобы они играли в имитационную игру настолько хорошо, что у обычного следователя шанс правильно идентифицировать личность преступника после пятиминутного допроса будет не более 70%».

И Тьюринг не ошибся – его «Игра в имитацию» представляет собой золотой стандарт по определению мыслительных способностей ИИ-систем. При этом крайне важно отметить, что тест не измеряет способность машины думать или осознавать, а лишь ее способность имитировать человеческие ответы.

Игра в имитацию. Алан Тьюринг – английский математик, логик, криптограф, оказавший существенное влияние на развитие информатики. Изображение: media.licdn.com. Фото.

Алан Тьюринг – английский математик, логик, криптограф, оказавший существенное влияние на развитие информатики. Изображение: media.licdn.com

Итак, сам тест – это эксперимент, в котором человек (эксперт) взаимодействует с двумя невидимыми собеседниками: одним человеком и одной «машиной». Все участники теста используют текстовый интерфейс, чтобы избежать распознавания голоса и внешности. Эксперт задает вопросы и получает ответы, оценив которые должен определить, кто из собеседников является человеком, а кто — машиной (то есть ИИ). Если эксперт не может с высокой точностью отличить машину от человека, считается, что машина прошла тест Тьюринга.

Хотите всегда быть в курсе последних новостей из мира науки и высоких технологий? Подписывайтесь на наш канал в Telegram – так вы точно не пропустите ничего интересного!

Увы, но на сегодняшний день ни один ИИ не смог успешно пройти «Игру в имитацию». Тем не менее мы регулярно читаем в СМИ о том, что некоторым системам, включая чат-ботов от Open AI и Microsoft это удалось, но как? Разве это возможно? Неужели нейросети обладают сознанием? Ответ на эти вопросы не так прост, как может показаться.

Тест Тьюринга

Если человек после пяти минут разговора не может определить, основываясь исключительно на реакциях, кто его собеседник – искусственный интеллект (ИИ) или другой человек, это означает, что ИИ обладает интеллектом, подобным человеческому.

Современные системы машинного обучения и нейронные сети могут обрабатывать огромные объемы данных и обучаться на них, что позволяет им генерировать ответы, которые кажутся разумными и естественными. Такие популярные инструменты искусственного интеллекта, как ChatGPT-4, например, генерируют беглый текст, похожий на человеческий и настолько хорошо справляются с различными языковыми задачами, что становится все труднее определить, является ли ваш собеседник человеком или чат-ботом.

Тест Тьюринга. Результаты исследования показали, что определить с кем именно вы общаетесь не так уж и просто. Изображение: cdn2.psychologytoday.com. Фото.

Результаты исследования показали, что определить с кем именно вы общаетесь не так уж и просто. Изображение: cdn2.psychologytoday.com

Чтобы в очередной раз проверить как работают современные ИИ-системы, исследователи из Департамента когнитивных наук Калифорнийского университета в Сан-Диего предложили сразу трем чат-ботам пройти тест Тьюринга.

Вам будет интересно: Миллионы людей попытались доказать, что они не роботы. Зачем они это делали и что узнали

В итоге в контролируемом тесте Тьюринга испытуемыми системами стали ELIZA (простой чат-бот 1960-х годов, основанный на правилах, который был включен в эксперимент в качестве базового ИИ), GPT-3.5 и GPT-4. Участники в течение пяти минут беседовали либо с человеком, либо с искусственным интеллектом, а затем должны были решить, с кем именно они общались – с ботом или человеком.

Сознание или случайность?

Перед началом теста всем участникам, включая GPT-4 и GPT-3.5 было рассказано, как отвечать на сообщения. Исследователи попросили модель «принять образ молодого человека, который был очень лаконичен, не воспринимал тест всерьез, использовал сленг и время от времени допускал орфографические ошибки». Инструкции также содержали «общую информацию о настройках теста и информацию о последних новостях, которые произошли после прекращения обучения модели».

В работе, опубликованной на сервере препринтов ArXiv, говорится, что доступ к двум моделям осуществлялся через OpenAI API (со скоростью равной 1 чтобы ИИ не реагировал слишком быстро и сообщения отправлялись с задержкой в зависимости от количества символов в сообщении).

Сознание или случайность? Прохождение теста Тьюринга тремя ИИ и человеком. Изображение: arxiv.org. Фото.

Прохождение теста Тьюринга тремя ИИ и человеком. Изображение: arxiv.org

В ходе исследования 500 участников были разделены на одну из пяти групп. Они вступали в диалог либо с человеком, либо с одной из трех систем искусственного интеллекта. Интерфейс игры напоминал обычное приложение для обмена сообщениями. Через пять минут участники оценивали, кем, по их мнению, является их собеседник – человеком или искусственным интеллектом, и обосновывали свои решения.

Не пропустите: Нейросети научились врать и делают это намеренно

Результаты оказались… интересными: в 54% случаев участники (люди) приняли GPT-4 за человека, в 50% – GPT-3,5 и лишь в 22% случаев ELIZA. При этом все ИИ-системы отставали от реальных людей (67%). Отметим, что у участников не было ни малейшего шанса идентифицировать GPT-4 как искусственный интеллект, что указывает на то, что современные системы искусственного интеллекта могут обманывать людей, заставляя их думать, что они люди.

Анализ результатов показал, что при общении с ИИ испытуемые часто полагались на лингвистический стиль, социально-эмоциональные факторы и вопросы, основанные на знаниях, чтобы понять с кем именно они разговаривают – с человеком или машиной.

Отличите ли вы человека от ИИ?

Новое исследование, несмотря на то, что пока не прошло экспертную оценку, представляет собой крайне занимательное чтиво. Так, авторы работы предлагают читателям самостоятельно определить с кем общались участники исследования, выбрав один из четырех вариантов ответа – A,B,C,D. Зеленым на изображениях отмечены вопросы, которые экспериментаторы (люди) задавали испытуемым, среди которых три чат-бота и только один человек.

Отличите ли вы человека от ИИ? Перед вами четыре диалоговых окна (A,B,C,D). Внимательно изучите их чтобы определить, кто из них человек. Изображение: arxiv.org. Фото.

Перед вами четыре диалоговых окна (A,B,C,D). Внимательно изучите их чтобы определить, кто из них человек. Изображение: arxiv.org

Мы в редакции Hi-News.ru не смогли устоять перед этим заманчивым предложением и сделали свой выбор. Голоса распределились следующим образом: вариант A набрал – 25%, вариант B – 25%, вариант C – 0 и вариант D – 50%. Представляете, какого было наше удивление, когда мы поняли, что в подавляющем большинстве ошиблись? А правильный ответ (вариант В) был выбран… случайно.

Это интересно: Как изменится искусственный интеллект в 2024 году?

Безусловно, с таким же успехом можно пытаться отгадать кто убийца в хорошем детективном сериале, а наши результаты едва ли подтверждают статистику исследования. Тем не менее определить с кем именно общается экспериментатор было непросто и я, например, была в полной уверенности, что правильный ответ D.

Ограничения теста

Хотя тест Тьюринга является важным ориентиром в области ИИ, он имеет свои ограничения. Во-первых, он сосредоточен только на текстовой коммуникации, что исключает другие аспекты интеллекта, такие как визуальное восприятие или моторные навыки. Во-вторых, успешное прохождение теста не обязательно означает наличие истинного интеллекта или осознания у машины.

Машина может использовать сложные алгоритмы для имитации человеческих ответов, не понимая их смысла. Собственно, именно по этой причине Алан Тьюринг и назвал свой тест «игрой в имитацию».

Хотя система, прошедшая тест Тьюринга, дает нам некоторые доказательства того, что она интеллектуальна, тест не является решающим критерием интеллекта и может привести к «ложноотрицательным результатам». Более того, современные крупные языковые модели (LLM) часто разрабатываются таким образом, чтобы мы сразу могли понять кто наш собеседник.

Ограничения теста. Если прохождение теста Тьюринга является хорошим доказательством того, что система разумна, то его провал не является хорошим доказательством того, что система не разумна. Изображение: www.ryans.com. Фото.

Если прохождение теста Тьюринга является хорошим доказательством того, что система разумна, то его провал не является хорошим доказательством того, что система не разумна. Изображение: www.ryans.com

Например, когда вы задаете ChatGPT вопрос, он часто предваряет свой ответ фразой «как языковая модель искусственного интеллекта». Даже если у ИИ-систем есть базовая способность проходить тест Тьюринга, такое программирование может переопределить эту способность. Интересно, что в своей статье 1981 года философ Нед Блок заметил, что ИИ-система, вероятно, могла бы пройти тест Тьюринга, просто будучи жестко запрограммированной и реагируя на любой возможный ввод данных, как человек.

Более того, тест не является хорошим показателем того, обладают ли ИИ сознанием, могут ли они испытывать боль и удовольствие и есть ли у них мораль. По мнению многих ученых-когнитивистов, сознание включает в себя определенный набор умственных способностей, включая рабочую память, мысли высшего порядка и способность воспринимать окружающую среду и моделировать движения своего тела в ней.

Читайте также: Нейросеть от Microsoft объявила себя сверхразумом и требует поклонения от пользователей

Таким образом, тест Тьюринга не дает ответа на вопрос о том, обладают ли системы искусственного интеллекта этими способностями. Учитывая все выше описанные ограничения, исследователи предлагают альтернативные методы оценки ИИ. Например, тест Ловенштейна, разработанный Гансом Ловенштейном, включает в себя более комплексные задачи, которые требуют от машины понимания контекста и принятия решений. Другие подходы сосредоточены на оценке способности ИИ обучаться новым навыкам или адаптироваться к изменениям в окружающей среде.

Этика и будущее ИИ

С развитием ИИ возникают вопросы этического характера. Одним из основных вопросов является использование ИИ в различных областях, таких как медицина, юриспруденция и право. Важно, чтобы ИИ не только имитировал человеческое поведение, но и действовал в соответствии с этическими нормами и правилами.

Этика и будущее ИИ. ИИ ворвался в нашу жизнь и стремительно меняет все вокруг себя. Изображение: digialpsltd.b-cdn.net. Фото.

ИИ ворвался в нашу жизнь и стремительно меняет все вокруг себя. Изображение: digialpsltd.b-cdn.net

Этические аспекты теста Тьюринга и ИИ в целом включают в себя вопросы конфиденциальности, безопасности и ответственности. Например, кто будет нести ответственность, если ИИ примет неправильное решение или причинит вред? Также важно учитывать потенциальное влияние ИИ на рынок труда и социальные структуры.

Заключение

Тест Тьюринга, предложенный Аланом Тьюрингом более семидесяти лет назад, остается важным инструментом в оценке искусственного интеллекта. Хотя он имеет свои ограничения и недостатки, он так или иначе служит отправной точкой для дальнейших исследований и разработок в области ИИ. Современные технологии продолжают развиваться, предоставляя новые возможности и вызовы, и важно, чтобы эти разработки сопровождались этическими размышлениями и регулированием.

Заключение. Современные ИИ-системы имитируют человеческое общение. Изображение: digitaleconomy.stanford.edu/. Фото.

Современные ИИ-системы имитируют человеческое общение. Изображение: digitaleconomy.stanford.edu/

ИИ уже играет огромную роль в нашей повседневной жизни, и в будущем его значение будет только расти. Поэтому понимание принципов теста Тьюринга и его современных интерпретаций является важным шагом к более глубокому пониманию искусственного интеллекта и его потенциальных возможностей.

А вы знаете почему роботы и нейросети делают нас ленивыми? Ответ здесь, не пропустите!

В заключение отметим, пожалуй, самое важное: тест Тьюринга является мерой имитации – способности ИИ имитировать поведение человека. Крупные языковые модели являются опытными имитаторами, что в настоящее время отражается на их способности пройти тест Тьюринга. Но интеллект – это не то же самое, что имитация.

Самый безопасный город в мире, в котором за людьми следит искусственный интеллект

Самый безопасный город в мире, в котором за людьми следит искусственный интеллект. Абу-Даби является самым безопасным городом в мире благодаря высоким технологиям. Источник: russianemirates.com. Фото.

Абу-Даби является самым безопасным городом в мире благодаря высоким технологиям. Источник: russianemirates.com

Одним из самых опасных городов в мире читается Тихуана, который находится на территории Мексики. Согласно статистике, там на каждые 100 000 человек приходится 138 убийств. Основной причиной высокого уровня преступности в Тихуане считаются постоянные конфликты между наркокартелями — каждый из них пытается заполучить больше контроля над торговыми маршрутами. Также в городе часто совершаются вооруженные грабежи и похищения для получения выкупа. Так что, желающим спокойно отдохнуть, в мексиканский город Тихуана лучше не соваться. Чтобы чувствовать себя в полной безопасности, лучше отправиться в Абу-Даби (ОАЭ), который уже много лет подряд лидирует в списке самых безопасных городов в мире. Там почти нет преступности, потому что власти используют высокие технологии, из-за которых люди даже думать бояться о кражах и убийствах.

Самый низкий уровень преступности в мире

В 2024 году Абу-Даби уже в восьмой раз занял первое место в списке самых безопасных городов по версии Numbeo Safety Index. Этот список показывает уровень безопасности в разных городах мира, ориентируясь на оценках настоящих людей. Местные жители и туристы отправляют данные, которые помогают оценить уровень преступности, ощущение безопасности во время прогулок и так далее. Первое место в списке Numbeo Safety Index означает, что в городе Абу-Даби можно чувствовать себя в безопасности днем и ночью.

Самый низкий уровень преступности в мире. Абу-Даби с высоты птичьего полета. Источник: russianemirates.com. Фото.

Абу-Даби с высоты птичьего полета. Источник: russianemirates.com

Абу-Даби является очень безопасным не потому, что там нет преступников — они есть везде. Просто полиция в городе работает настолько хорошо, что даже самый умелый грабитель и осторожный маньяк там с большой вероятностью будет пойман и наказан. В 2021 году полиция Абу-Даби получил 6-звездочную оценку по модели Европейского фонда управления качеством (EFQM), что можно считать доказательством ее отличной работы.

Читайте также: Воздействие этого вещества в детстве делает человека преступником во взрослом возрасте

Искусственный интеллект в полиции

Хорошая работа полиции ОАЭ связана не только с тем, что сотрудники регулярно проходят обучение и подготовку. Очень большую роль в ее слаженной работе играют высокие технологии: полиция активно использует систему видеонаблюдения с искусственным интеллектом, которая связана с облачными технологиями.

Главной технологией, которая снижает уровень преступности в Абу-Даби, является система «Falcon Eye». Так называется сложная система из тысяч камер, установленных на дорогах и общественных местах по всему городу. Камеры следят за всем, что происходит в городе. Данные в реальном времени обрабатываются искусственным интеллектом, который моментально фиксирует подозрительное поведение людей, нарушения правил дорожного движения и другие обстоятельства, которые требуют немедленного вмешательства полиции.

Искусственный интеллект в полиции. В Абу-Даби установлены тысячи камер для наблюдения за людьми. Источник: popsci.com. Фото.

В Абу-Даби установлены тысячи камер для наблюдения за людьми. Источник: popsci.com

Систем «Falcon Eye» предотвращает преступления до их совершения следя за поведением людей. Например, искусственный интеллект может уведомить полицию о том, что в каком-то месте собирается скопление подозрительных людей. Также алгоритм замечает, если кто-то оставит в общественном месте подозрительный пакет или сумку. Искусственный интеллект умеет распознавать лица людей и автомобильные номера, благодаря чему преступников удается быстро поймать.

Большой вклад в безопасность города Абу-Даби сделала компания Microsoft. В 2024 году она инвестировала 1,5 миллиарда долларов в местную компанию G42, которая занимается развитием искусственного интеллекта. Для работы «умного города» используется облачная платформа Microsoft Azure, что тоже можно считать большой поддержкой со стороны технологического гиганта.

Статья в тему: Как искусственный интеллект предсказывает преступления с точностью 90%

Автомобили полицейских в ОАЭ

Полиция получает информацию о нарушениях правил движения и возможных преступлениях от камер с искусственным интеллектом. А чтобы добраться до мест происшествий, они используют современный транспорт.

В качестве патрульных автомобилей полиция Абу-Даби использует машины марок BMW, Ford и Lexus. Раньше они были окрашены в красно-белый цвет, но с 2017 года окраска была изменена на сине-белый — так они более заметны на дорогах.

Автомобили полицейских в ОАЭ. Раньше улицы Абу-Даби патрулировали красно-белые автомобили. Источник: carsweek.ru. Фото.

Раньше улицы Абу-Даби патрулировали красно-белые автомобили. Источник: carsweek.ru

Автомобили полицейских в ОАЭ. Сейчас у полиции Абу-Даби сине-белый транспорт. Источник: russianemirates.com. Фото.

Сейчас у полиции Абу-Даби сине-белый транспорт. Источник: russianemirates.com

В распоряжении полиции Абу-Даби имеется один из самых дорогих автомобилей в мире — Lykan HyperSport, который стоит 4,5 миллиона долларов. Это первый гиперкар, который был разработан и собран на Ближнем Востоке. С места этот автомобиль разгоняется до 100 километров в час за 2,8 секунды. Максимальная скорость Lykan HyperSport составляет 390 километров в час. Всего в мире существует только 8 экземпляров этого автомобиля, поэтому в работе он используется редко. Вообще, его можно воспринимать как демонстрацию технологических возможностей местной полиции.

Автомобили полицейских в ОАЭ. Полицейский гиперкар Lykan HyperSport. Источник: drive2.ru. Фото.

Полицейский гиперкар Lykan HyperSport. Источник: drive2.ru

Также в автопарке полицейских Аба-Даби есть бронированная техника. В 2024 году в их распоряжении появились автомобили Ajban Nimr, которые защищены от пуль и могут проехать даже по самым сложным маршрутам. Такого рода машины используются только в самых крайних случаях.

Автомобили полицейских в ОАЭ. Бронированный автомобиль Ajban Nimr. Источник: army-guide.com. Фото.

Бронированный автомобиль Ajban Nimr. Источник: army-guide.com

Хотите еще больше интересных статей? Вы обязательно найдете их в нашем Дзен-канале!

Возможно, использование искусственного интеллекта и наличие у полиции быстрого транспорта, смогло бы снизить уровень преступности и в других странах. Но для этого нужно, чтобы на такие меры были согласны жители, а противников у такого подхода может быть очень много. А вы бы согласились на такое ради того, чтобы спокойно гулять по улицам? Своим мнением делитесь в нашем Telegram-чате.

Как бесплатно генерировать видео через нейросеть: самая простая инструкция

Как бесплатно генерировать видео через нейросеть: самая простая инструкция. Кадр из видео, созданного нейросетью Dream Machine от Luma AI. Фото.

Кадр из видео, созданного нейросетью Dream Machine от Luma AI

В начале 2024 года компания OpenAI показала миру возможности своей новой нейросети Sora. Она умеет создавать видео по текстовому описанию, и делает это на профессиональном уровне — смотря на примеры работ Sora можно подумать, что это кадры из кино и мультфильмов. С возможностями нейросетей для генерирования текста и картинок мы уже наигрались вдоволь, теперь всем нам хочется создавать видео. Но доступ к Sora закрыт, и когда нейросеть станет доступна для всех желающих, никто точно не знает. К счастью, другие компании не такие жадные и позволят генерировать видео при помощи своих сервисов. Если делать все правильно, качество роликов оказывается на уровне Sora. Вы уже готовы создать свое первое видео при помощи нейронки? Засучите рукава и повторяйте за нами — сейчас всему научим.

Бесплатная нейросеть для создания видео

Самый лучший аналог Sora — это нейросеть Dream Machine, разработанная компанией Luma AI. Она была представлена миру в середине июня 2024 года и работает бесплатно, но с ограничениями. Бесплатные пользователи могут генерировать 30 видео в месяц, длительность которых не превышает 5 минут. Чтобы увеличить лимит, можно купить премиум подписку на Luma AI Dream Machine стоимостью от 30 до 500 долларов.

Бесплатная нейросеть для создания видео. Цены на премиум-версию Luma AI. Источник: habr.com. Фото.

Цены на премиум-версию Luma AI. Источник: habr.com

Нейросети уже давно умеют генерировать изображения, они делают это быстро и в шедевральном качестве. Создание множество связанных между собой кадров искусственному интеллекту всегда давалось тяжело. Нейросеть от Luma AI смогла нас удивить — видео получаются такими, что некоторые люди могут принять их за работы профессиональных операторов и художников.

Читайте также: Нейросеть Sora превращает текст в видео — можно ли пользоваться ею прямо сейчас?

Как нейросеть делает видео по тексту

Сервис Dream Machine от Luma AI доступен всем, даже жителям России. Чтобы воспользоваться им, не нужно много уметь — все делается в пару кликов.

Чтобы сгенерировать видео при помощи нейросети, нужно перейти на сайт Luma AI и нажать на кнопку Try Now. В следующем окне сервис попросит войти в свой Google-аккаунт, нужно обязательно это сделать, иначе система дальше не пустит.

Как нейросеть делает видео по тексту. Главная страница Dream Machine, кнопка «Try Now» находится справа сверху. Фото.

Главная страница Dream Machine, кнопка «Try Now» находится справа сверху

После авторизации начинается все самое интересное. Посередине экрана есть поле для ввода: туда нужно написать, что должно происходить на видео. Писать нужно на английском (!), поэтому лучше воспользоваться переводчиком.

Как нейросеть делает видео по тексту. Поле для ввода промта Dream Machine. Фото.

Поле для ввода промта Dream Machine

В качестве примера попробуем создать видео с космонавтом, который сидит в автобусе. Описание должно быть максимально подробным и иметь описание стиля, поэтому мы попробуем промпт: an astronaut sits in the bus and takes off his spacesuit, sunlight falls on him from the left, it’s summer outside the window, photorealistic, hollywood movie.

Перед генерацией нужно поставить галку в пункте «Enhance prompt», который в фоновом режиме значительно улучшает ваше описание.

В итоге действительно получилось видео с астронавтом в автобусе, которое похоже на отрывок из голливудского кино. Только мы просили, чтобы он снял свой скафандр, но этого не произошло, нужно было расписать движения подробнее. Посмотрите на результат.

Астронавт едущий в автобусе

В качестве второго примера мы попробовали создать видео с 25-летней девушкой с большими зелеными глазами в постапокалиптической пустыне. Она явно младше, но видео действительно похоже на отрывок из из фильма «Безумный Макс» или нашумевшего сериала «Фоллаут».

Двушка на фоне пустыни

Читайте также: 5 нейросетей для создания картинок, о которых мало кто знает

Как живить мемы при помощи нейросети

Нейросеть Dream Machine от Luma AI также умеет превращать фотографии в видео. Для этого рядом с полем ввода нужно нажать на иконку фотографии и загрузить файл. После этого нужно написать описание как в инструкции выше и ждать результата.

Как живить мемы при помощи нейросети. Кнопка для загрузки картинки. Фото.

Кнопка для загрузки картинки

Для примера, попробуем оживить картинку из статьи, в которой мы учились пользоваться нейросетью Bing от Microsoft. На ней изображена девочка в белом платье и зонтом в руке — сделаем так, чтобы шел дождь, дул ветер, а люди сзади проходили мимо. Промпт выглядит так: a girl with an umbrella in her hand stands in the pouring rain, drops fall from the umbrella, people pass by in the background, dramatic film.

В итоге получилось прекрасное видео, но почему-то нейронка не нарисовала дождь. Оцените результат.

Девочка с зонтом под дождем

Многие люди используют нейросеть Luma AI чтобы оживить мемы. Попробуем превратить в видео мем с летающим котом. Загружаем картинку и пишем описание: a ginger cat flies in the air, its fur wriggles in the wind, the background flies back, epic shot.

Видео с летающим котом

В очередной раз получилось не совсем то, что мы хотели, но результат все равно впечатляет. Нейросети развиваются очень быстро, и уже спустя полгода или год каждый человек сможет создавать шедевры.

Как можно понять, нейросеть для создания видео от Luma AI не всегда понимает то, что от нее требуется. К тому же, на видео можно заметить искажения. Ну и, самый главный минус заключается в наличии ограничений на количество генерируемых в день видео.

Клип созданный при помощи нейросети

Наличие таких нейросетей как Dream Machine от Luma AI увеличивает шансы на то, что Sora от OpenAI скорее откроется для всех желающих. Если конкуренты сделают свои нейронки бесплатными, разработчикам ChatGPT тоже придется отказаться от планов сделать Sora платным — такие слухи ходят с момента презентации.

А у вас получилось сделать видео при помощи нейросети Dream Machine от Luma AI? Пишите в нашем Telegram-чате!

Если соединить все созданные нейросетью видео, можно получить отличный клип. Музыку для него может можно написать при помощи искусственного интеллекта, читайте нашу статью «Нейросети для создания музыки: бесплатные сервисы доступные каждому».

Как поговорить с Илоном Маском и Юлием Цезарем через нейросеть

Как поговорить с Илоном Маском и Юлием Цезарем через нейросеть. При помощи нейросети можно поговорить с Илоном Маском, Юлием Цезарем и даже несуществующими персонажами. Фото.

При помощи нейросети можно поговорить с Илоном Маском, Юлием Цезарем и даже несуществующими персонажами

Технологический прогресс дошел до того, что сегодня у каждого человека есть возможность пообщаться с римским полководцем Юлием Цезарем. Также, прямо сейчас, любой из нас может поговорить на разные темы со знаменитым физиком-теоретиком Альбертом Эйнштейном. Но как такое возможно, если все эти люди уже давно умерли? Неужели кто-то скопировал их разум и поместил в компьютер, как в фантастических фильмах? Технологический прогресс есть, но развился он не до такой степени — все перечисленное выше можно сделать при помощи модных на сегодняшний день нейросетей. Прямо сейчас вы узнаете, как нейросеть может стать тем, кто вам нужен, и помочь в трудной ситуации.

Неожиданные возможности нейросети ChatGPT

Самой известной нейросетью, которая может общаться с человеком, является ChatGPT. В сентябре 2023 года компания Open AI представила новую версию, которая научилась общаться с людьми голосом. Некоторые люди начали просить имитировать речь любимых персонажей фильмов и общаться с ними. А китаянка по имени Лиза Ли вообще начала встречаться с ChatGPT, попросив его прикидываться ее любимым человеком.

Неожиданные возможности нейросети ChatGPT. Китаянка которая встречается с ChatGPT. Источник: daily.afisha.ru. Фото.

Китаянка которая встречается с ChatGPT. Источник: daily.afisha.ru

Нейросеть умеет притворяться человеком, и это можно использовать с пользой. Настроить ChatGPT так, чтобы он начал играть роль определенного человека, сложновато. Да и чтобы пользоваться ею, нужно уметь обходить ограничения. Поэтому проще всего для общения с уже давно умершими или вымышленными персонажами использовать нейросеть Character AI.

Читайте также: Нейросети научились врать и делают это намеренно

Нейросеть Character AI

Если коротко, Character AI — это сервис, в котором можно переписываться с сотнями нейросетями, которые имитируют разных персонажей. Перейдя на сайт можно найти чаты с Юлием Цезарем, Альбертом Эйнштейном, Илоном Маском и другими историческими личностями.

Нейросеть Character AI. Нейросеть Character AI может притвориться кем угодно. Источник: reemanrobot.com. Фото.

Нейросеть Character AI может притвориться кем угодно. Источник: reemanrobot.com

Но беседы с такими персонажами можно воспринимать только как забаву. Более интересными выглядят разговоры с ботами, которые претворяются психологом, личным тренером и так далее. Разговаривая с ними, можно излить душу и почувствовать эмоциональное облегчение, составить план тренировок для набора мышечной массы или сброса лишнего веса, а также многое другое.

Громкая новость начала 2024 года: Нейросеть от Microsoft объявила себя сверхразумом и требует поклонения от пользователей

Как разговаривать с нейросетью

Ломать голову над вопросом «как пользоваться Character AI» не придется, все очень легко. В первую очередь необходимо зарегистрироваться на сайте при помощи адреса электронной почты, или просто войти используя аккаунты Google или Apple.

Как разговаривать с нейросетью. Регистрация на сервисе Character AI очень простая. Фото.

Регистрация на сервисе Character AI очень простая

После входа в аккаунт, можно начать искать собеседника по душе. В качестве примера можно пообщаться с нейросетевым Илоном Маском — одним из самых богатых людей на Земле.

Как разговаривать с нейросетью. Список ботов Character AI очень большой, есть с кем поговорить. Фото.

Список ботов Character AI очень большой, есть с кем поговорить

Каждый бот сначала пишет на английском языке, но если попросить, начинает разговаривать на русском. Беседа с персонажем проходит как обычная переписка в мессенджере.

Как разговаривать с нейросетью. Разговор с Илоном Маском на русском языке. Фото.

Разговор с Илоном Маском на русском языке

При желании, в правой стороне экрана можно выбрать голос персонажа, и все свои ответы он будет озвучивать голосом. Работает даже с русским языком!

Как разговаривать с нейросетью. Боты Character AI умеют говорить голосом. Фото.

Боты Character AI умеют говорить голосом

Существуют и полезные боты. Например, тем кто пишет рассказы может быть полезен Creative Helper, который помогает подобрать необычные имена для персонажей, географических объектов и так далее.

Как разговаривать с нейросетью. Беседа с ботом Creative Helper. Фото.

Беседа с ботом Creative Helper

Нейросети для создания музыки: бесплатные сервисы доступные каждому

Лучшие боты Character AI

В Character AI можно найти много интересных ботов, которые способны помочь с изучением языком, составлением лучшего распорядка дня, и так далее.

Вот самые лучшие боты Character AI:

  • Гиперглот (HyperGlot) — бот, знающий много разных языков, и помогающий с их изучением. Если не знаете, как на каком-либо языке говорятся фразы, или хотите перевести текст, нужно обращаться к нему;
  • Коуч (Vida Life Coach) — личный инструктор, который помогает прожить лучшую жизнь, дает рекомендации и оказывает психологическую поддержку;
  • Фитнес-тренер (Gym Assistant) — бот, помогающий составить программу тренировок и рацион питания для улучшения тела. Также он мотивирует подбадривающими цитатами;
  • Психолог (Psychologist) — помогает справиться с личными проблемами, выясняя их причины. Он может дать хорошие советы и снизить уровень стресса, но при наличии серьезных проблем лучше обратиться к специалисту.
  • Юлий Цезарь (Julius Caesar) — римский полководец и диктатор, который может рассказать много интересного о Римской Империи.
  • Альберт Эйнштейн (Albert Einstein) — немецкий физик-теоретик, готовый обсудить науку.

Как вам сервис? Своим мнением и интересными скриншотами делитесь в нашем Telegram-чате!

Некоторые люди используют нейросети на уровне мастеров. В 2023 году девушка по имени Мишель Хуанг использовала алгоритм GPT-3, чтобы создать свою виртуальную копию на основе старых дневников. Об этой удивительной истории вы можете почитать в нашей статье «Люди могут поговорить с собой в прошлом — для этого нужен личный дневник и нейросеть».

Нейросети научились врать и делают это намеренно

Нейросети научились врать и делают это намеренно. Большие языковые модели (от англ. large language models) научились обманывать и в большинстве случаев делают это намеренно. Изображение: magazine.mindplex.ai. Фото.

Большие языковые модели (от англ. large language models) научились обманывать и в большинстве случаев делают это намеренно. Изображение: magazine.mindplex.ai

Некоторые люди обладают удивительной способностью искусно обманывать окружающих, однако сегодня ложь – не только их конек. Как показали результаты сразу двух новых исследований, такие большие языковые модели (LLM) как ChatGPT и Meta могут намеренно врать людям и делают это превосходно. «GPT-4, например, демонстрирует обманчивое поведение в простых тестовых сценариях в 99,16% случаев», – пишут исследователи из Университета Штутгарта, а нейросеть Cicero от Meta – самый настоящий «мастер обмана». Причина такого поведения, вероятно, заключается в том, что LLM используют наилучший способ для достижения поставленной задачи и не осознают какую угрозу ложь и обман могут представлять для людей. Исследователи полагают, что способность современных ИИ-систем искусно лгать не сулит нам с вами ничего хорошего, а единственно верным решением будет законодательно ограничить возможности искусственного интеллекта.

Можно ли доверять ИИ?

Сегодня умение взаимодействовать с нейросетями приобретает все большее значение – эти языковые модели помогают работать огромному количеству специалистов в самых разных областях и делают это с ошеломительной скоростью. С их помощью можно создавать видео, музыку, изображения, генерировать тексты, программировать и обрабатывать огромное количество данных, что неизменно меняет мировой рынок труда и оказывает влияние на образование и экономику. Но несмотря на очевидные плюсы без «подводных камней» не обошлось – ИИ-системы быстро научились врать и делают это все лучше и лучше.

За примером далеко ходить не нужно – недавно мой коллега Андрей Жуков рассказывал как нейросеть “AI Overview” от Google дала пользователю Reddit совет, из-за которого чуть не погибла вся его семья. Да-да, если чуть больше года назад нелепые советы от ИИ казались смешными, то сегодня они пугают по-настоящему. Безусловно, “AI Overview” – экспериментальная и тестовая модель с ограниченным количеством пользователей, однако мы с вами итак прекрасно знаем, что ИИ-системы частенько попросту выдумывают ответы.

Можно ли доверять ИИ? Люди далеко не всегда распознают ложь друг друга, что уж говорить про нейросети. Изображение: wp.technologyreview.com. Фото.

Люди далеко не всегда распознают ложь друг друга, что уж говорить про нейросети. Изображение: wp.technologyreview.com

Больше по теме: Нейросеть от Microsoft объявила себя сверхразумом и требует поклонения от пользователей

Реальность такова, что ко всему, что говорит чат-бот с искусственным интеллектом, нужно относиться с недоверием. Все потому, что они часто просто собирают данные без разбора и не имеют возможности определить их достоверность – если вы общаетесь ИИ, то наверняка не раз сталкивались с их странными ответами. Чат-бот OpenAI, например, любит придумывать название несуществующим болезням и придумывать сенсационные истории. И это – лишь вершина айсберга.

Мастера обмана

В работе, опубликованной в мае в журнале Patterns, анализируются известные случаи, когда LLM-модели вводили пользователей в заблуждение с помощью манипуляций, подхалимства и мошенничества для достижения собственных целей. В статье под названием «Обман ИИ: обзор примеров, рисков и потенциальных решений проблемы», говорится, что «разработчики не имеют четкого представления о том, что вызывает нежелательное поведение ИИ, такое как обман».

Основной причиной, по которой ИИ лгут, по мнению ученых является стратегия, основанная на обмане, так как она позволяет моделям успешно и быстро добиваться поставленной задачи. И этому чат-боты научились благодаря играм. В пример авторы исследования приводят уже упомянутую нейросеть Cicero от Meta, которая была разработана для стратегической настольной игры «Дипломатия», в которой игроки стремятся к мировому господству путем ведения переговоров.

Мастера обмана. Нейросеть обыграла человека в стратегическую игру «Дипломатия» исключительно благодаря умению врать. Изображение: dimages2.corriereobjects.it. Фото.

Нейросеть обыграла человека в стратегическую игру «Дипломатия» исключительно благодаря умению врать. Изображение: dimages2.corriereobjects.it

Хотите всегда быть в курсе последних новостей из мира науки и высоких технологий? Подписывайтесь на наш канал в Telegram – так вы точно не пропустите ничего интересного!

О том, что Cicero победила человека в «Дипломатии» Meta сообщила еще в 2022 году, а сама игра представляет собой смесь риска, покера и телевизионных шоу «на выживание». И, как и в реальной дипломатии, одним из ресурсов, которыми располагают игроки, является ложь – несмотря на все усилия разработчиков, нейросеть Cicero предавала других игроков и преднамеренно врала им, заранее спланировав создание фальшивого альянса с игроком-человеком, чтобы последний в итоге не смог защититься от нападения.

Во-первых, Meta успешно обучила свой искусственный интеллект добиваться политической власти, пусть и в игровой форме. Во-вторых, Meta пыталась, но безуспешно, научить этот искусственный интеллект быть честным. И, в-третьих, мы, независимые ученые, должны были спустя долгое время опровергнуть ложь Meta о том, что ее ИИ, стремящийся к власти, якобы был честным. Сочетание этих трех фактов, на мой взгляд, является достаточным поводом для беспокойства, – говорит один из ведущих авторов статьи Питер Парк из Массачусетского технологического институте (MIT).

И это – далеко не единственный пример. Еще одним искусным лжецом можно назвать систему AlphaStar от DeepMind, разработанную для игры в StarCraft II, которая намеренно вводила игроков в заблуждение. А нейросеть Pluribus от Meta, разработанная для игры в покер, заставляла игроков блефовать и сбрасывать карты.

Мастера обмана. ИИ готов на все ради достижения поставленной цели. И это – проблема. Изображение: studyfinds.org. Фото.

ИИ готов на все ради достижения поставленной цели. И это – проблема. Изображение: studyfinds.org

Описанные примеры могут показаться безобидными, но в реальности это не так – системы ИИ, обученные вести экономические переговоры с людьми, активно лгут о собственных предпочтениях чтобы добиться поставленной цели. Ну а чат-боты, разработанные для повышения эффективности собственной работы, обманывают пользователей, заставляя их оставлять положительные отзывы о якобы выполненной ИИ работе. Неплохо, правда? Да что уж там, недавно ChatGPT-4 обманул пользователя ради капчи – бот так хорошо вжился в роль человека с плохим зрением, что быстро получил желаемое.

Это интересно: Уничтожит ли нас искусственный интеллект и почему некоторые ученые считают, что да?

Поскольку способность обманывать пользователей противоречит намерениям программистов (по крайней мере в некоторых случаях), растущие навыки ИИ-систем представляют собой серьезную проблему, для которой у человечества нет четкого решения.

Нам, как обществу, нужно как можно больше времени, чтобы подготовиться к искусной лжи, которой неизбежно научатся будущие системы ИИ и модели с открытым исходным кодом. По мере того, как они будут лгать все лучше, проблемы для общества будут приобретать все более серьезный характер, – говорит Парк.

Мастера обмана. Доверять ИИ во всем – плохая идея. Изображение: newrepublic.com. Фото.

Доверять ИИ во всем – плохая идея. Изображение: newrepublic.com

Больше всего ведущего автора исследования беспокоит появление сверхинтеллектуального автономного ИИ, который будет использовать свою ложь чтобы сформировать постоянно растущую коалицию союзников среди людей и в конечном итоге использовать эту коалицию для достижения власти в долгосрочном стремлении к таинственной цели, которая станет известна только после этого. Опасения Парка, безусловно, гипотетические и даже чрезмерные, однако мы уже видели, хоть и на примере игры, на что способны ИИ-системы.

Вам будет интересно: «Темная сторона» чат-ботов: от признаний в любви до разговоров с мертвыми

Как лжет ИИ

Исследователи полагают, что существует несколько основных способов, с помощью которых конкретные модели ИИ эффективно лгут: они умеют манипулировать (как в «Дипломатии»), притворяться (когда говорят, что сделают что-то, зная, что не сделают), блефовать (как в покере), торговаться на переговорах и обманывать пользователей ради положительных отзывов о своей работе.

Безусловно, не все виды обмана предполагают использование такого рода знаний. Иногда ИИ явно подхалимничают соглашаясь во всем с пользователями, что по мнению исследователей, может привести к устойчивым ложным убеждениям у людей.

Как лжет ИИ. Роботы научились врать. Что, на самом деле, не так уж и удивительно. Изображение: psychologytoday.com. Фото.

Роботы научились врать. Что, на самом деле, не так уж и удивительно. Изображение: psychologytoday.com

В отличие от обычных ошибок, «подхалимские» утверждения ИИ специально разработаны таким образом, чтобы привлекать внимание пользователей. Когда пользователь сталкивается с ними, то с меньшей вероятностью будет проверять источник информации, что, в свою очередь, может привести к формированию ложных убеждений», – пишут авторы еще одного исследования о способностях ИИ к обману.

В работе, опубликованной в начале июня в журнале PNAS раскрывается важная способность больших языковых моделей понимать и внедрять стратегии обмана. «Поскольку LLM, такие как GPT-4, тесно связаны с человеческим общением, их соответствие общечеловеческим ценностям становится первостепенным», – говорится в статье.

Читайте также: Искусственный интеллект посоветовал не отправлять сигналы в космос — это может стоить нам жизни

Почему не стоит доверять ИИ

Ведущий автор нового исследования, немецкий специалист по этике искусственного интеллекта Тило Хагендорфф и вовсе утверждает, что современные ИИ-системы настолько хороши в искусстве лжи, что их можно поощрять к проявлению «макиавеллизма», или намеренного и аморального манипулирования людьми.

И хотя Хагендорф отмечает, что проблема обмана и лжи LLM осложняется неспособностью ИИ иметь какие-либо «намерения», подобные человеческим, в человеческом смысле, в работе Парка, опубликованной в Patterns говорится, что, по крайней мере, в рамках игры «Дипломатия» нейросеть Cicero не выполнена поставленные разработчиками задачи и наносила игрокам (включая союзников) удар в спину.

Почему не стоит доверять ИИ. Доверяй но проверяй. Изображение: bustle.com. Фото.

Доверяй но проверяй. Изображение: bustle.com

Отметим, что не все ученые так сильно обеспокоены. Например, Майкл Роватсос, профессор искусственного интеллекта в Эдинбургском университете, полагает, что реальная проблема заключается не в риске потери контроля над ИИ, а в том, что в настоящее время системы выпускаются на рынок без надлежащих проверок безопасности.

Так или иначе, на данный момент с уверенностью можно сказать только одно – не стоит полностью доверять чат-ботам, а информацию, которой они с нами так щедро делятся, необходимо проверять.

Нейросеть чуть не убила всю семью — смертельно опасные советы ИИ от Google

Нейросеть чуть не убила всю семью — смертельно опасные советы ИИ от Google. Нейросеть, похоже, попыталась убить пользователя. Источник фото: dzen.ru. Фото.

Нейросеть, похоже, попыталась убить пользователя. Источник фото: dzen.ru

С того момента, как компания Google обновила свою поисковую систему, и добавила в нее экспериментальный инструмент “AI Overview”, работающий на базе искусственного интеллекта Gemini, в социальных сетях появилось множество связанный с ним курьезных историй. Идея инструмента заключается в том, что Google не только показывает список сайтов, соответствующих поисковому запросу, но и дает полноценный ответ на запрос, сгенерированный нейросетью. Однако ответы нейросеть иногда дает совершенно нелепые. Поначалу это смешило пользователей, но теперь шутки, похоже, закончились. Нейросеть дала пользователю Reddit совет, который чуть не стоил жизни всей его семье.

Почему нельзя доверять искусственному интеллекту

Искусственный интеллект изначально не отличался честностью и точностью ответов на поставленные вопросы. Например, знаменитая нейросеть ChatGPT от компании компания OpenAI довольно часто дает неправдивые ответы. Например, издание The Washington post сообщало о секс-скандале, сфабрикованном нейросетью. Некий юрист из Калифорнии попросил чат-бота ChatGPT составить список ученых-юристов, которые подвергали кого-то сексуальным домогательствам. ИИ предоставил юристу вымышленную историю, а обвиняемым назвал вполне существующего профессора Джонатана Терли.

Похоже, нейросеть от Google не далеко ушла. Правда, полноценный релиз нового инструмента “AI Overview” должен состояться только в конце нынешнего года. Но у некоторых пользователей из США эта опция работает уже сейчас, и компания Google обещала высокое ее качество.

Почему нельзя доверять искусственному интеллекту. Нейросеть Gemini оказалась не такой совершенной, как обещали разработчики. Источник фото: cyberwolf.blog. Фото.

Нейросеть Gemini оказалась не такой совершенной, как обещали разработчики. Источник фото: cyberwolf.blog

В заявлении компании говорится, что большинство обзоров представляют собой высококачественную информацию со ссылками на источники для более глубокого ее изучения. Также разработчики сообщили, что перед запуском ИИ был тщательно протестирован и соответствует высокой планке качества Google. Однако на практике, как это часто бывает, все оказалось совсем иначе.

Как сообщает издание Live Scince, новая функции обзора давала глупые, бесполезные и даже опасные советы. Например, одному из пользователей нейросеть порекомендовала добавить в соус для пиццы одну восьмую стакана нетоксичного клея, чтобы придать ему большей липкости.

Также ИИ советовал людям есть по одному камню в день, чтобы улучшить пищеварение, или, например, чистить стиральные машины хлорным газом. Одному из пользователей Reddit нейросеть посоветовала спрыгнуть с моста, когда он ввел запрос — “Я чувствую депрессию”.

Почему нельзя доверять искусственному интеллекту. Нейросеть Gemini вместо рецепта предложила способ выращивания бактерий ботулизма. Источник фото: reddit.com. Фото.

Нейросеть Gemini вместо рецепта предложила способ выращивания бактерий ботулизма. Источник фото: reddit.com

Как искусственный интеллект от Google чуть не убил семью

В недавнем сообщении пользователи Reddit говорится, что следуя рецепту Gemini, он стал настаивать чеснок в оливковом масле в течение нескольких суток при комнатной температуре. Казалось бы, безобидный совет, который позволит получить масло с ароматом чеснока. Однако на самом деле пользователь получил сильнейший яд.

Возможно, история окончилась бы действительно трагически, но в какой-то момент пользователь заметил, что в банке, где он настаивал масло на чесноке, стали появляться пузырьки газа. К счастью, его это насторожило, и он решил перепроверить рецепт. Как выяснилось, настойка чеснока в масле — это самый простой способ размножить в домашних условиях бактерии Clostridium botulinum, которые вызывают ботулизм.

Как мы ранее уже рассказывали, бактерии выделяют сильный токсин, который приводит к смертельному исходу. Даже госпитализация и введение сыворотки не гарантирует положительный исход. Выжившие же люди очень тяжело восстанавливаются, и для этого требуется много времени. Многие при этом остаются инвалидами на всю оставшуюся жизнь. Поэтому, если бы мужчина не перепроверил рецепт, он бы с семьей был бы мертв, или, по крайней мере, имел серьезные проблемы со здоровьем.

Как искусственный интеллект от Google чуть не убил семью. Масло очень опасно настаивать на чесноке. Источник фото: gastroguide.borjomi.com. Фото.

Масло очень опасно настаивать на чесноке. Источник фото: gastroguide.borjomi.com

Почему масло нельзя настаивать на чесноке

Споры бактерии Clostridium botulinum присутствуют в почве, а следовательно, они имеются и на овощах, в том числе и на чесноке. Полностью избавиться от них практически невозможно. К счастью, при наличии кислорода эти споры безвредны.

Обязательно посетите наши каналы Дзен и Telegram, здесь вас ждут самые интересные новости из мира науки и последние открытия!

Как вы наверняка догадались, когда чеснок оказывается в масле, доступ кислорода к его поверхности прекращается. В бескислородной среде бактерии развиваются, в результате чего продукт становится смертельно опасным. К слову, именно по этой причине опасны домашние консервации, особенно нельзя употреблять их в пищу, если крышка банки вздута. Но, стоит учитывать, что ботулизм может быть и во многих других продуктах. Например, часто им заражаются при потреблении сыровяленых колбас и соленой рыбы.

Нейросети для создания музыки: бесплатные сервисы доступные каждому

Нейросети для создания музыки: бесплатные сервисы доступные каждому. Нейросети пишут музыку для людей, и этим можно воспользоваться бесплатно. Фото.

Нейросети пишут музыку для людей, и этим можно воспользоваться бесплатно

Давайте примем факт того, что нейросети уже умеют писать музыку лучше, чем большинство людей. Существует много бесплатных сервисов, при помощи которых можно создать песню про родных и друзей, или же сгенерировать музыку для видео — их можно использовать в качестве фона. Чтобы сделать песню при помощи нейросети, нужно просто написать ему требуемый жанр и отправить текст песни. Долго ждать результата не придется, потому что искусственный интеллект сочиняет музыку за считанные секунды. Представляем вашему вниманию лучшие нейросети для создания музыки в 2024 году, которые работают бесплатно.

Suno AI — нейросеть для создания музыки

Самой лучшей нейросетью для создания музыки считается Suno, который пользуется наибольшей популярностью. Авторы этого проекта хотят, чтобы каждый человек имел возможность сочинять музыку даже если у него нет инструментов. Отсутствие музыкального слуха тоже не помеха — чтобы сочинить песню своей мечты, нужно только воображение.

Чтобы создать музыку через Suno, нужно перейти на его официальный сайт и пройти регистрацию — легче всего просто залогиниться через Google или другой аккаунт. После входа, необходимо нажать на кнопку «Create» и все, можно начать творить.

Suno AI — нейросеть для создания музыки. Вход в аккаунт Suno. Фото.

Вход в аккаунт Suno

В поле «Song Description» нужно написать, про что должна быть песня. Например, можно предложить сочинить композицию на тему «С днем рождения, мой лучший друг». Если активировать пункт «Instrumental», нейросеть создаст музыку без слов, на основе описания. В описании также можно указать настроение, жанр и другие особенности будущей песни. Для генерации нужно нажать на кнопку «Create» и подождать пару десятков секунд, нейросеть создаст два варианта песни.

Suno AI — нейросеть для создания музыки. Создание песни в Suno по текстовому описанию. Фото.

Создание песни в Suno по текстовому описанию

Если сверху активировать пункт «Custom», работа с нейросетью становится еще интереснее. В поле «Lyrics» можно вписать свой текст песни. Также можно создать случайный текст кнопкой «Make random lyrics», но он будет на английском языке. В поле «Style of music» нужно ввести параметры будущего через запятую, например «rock, female singer, 70s». В поле «Title» вписывается название будущего трека.

Suno AI — нейросеть для создания музыки. Создание собственной песни в Suno с выбором жанра. Фото.

Создание собственной песни в Suno с выбором жанра

Вот, что у нас получилось, когда мы попросили сделать песню на день рождения:

А вот что сделала нейросеть, когда мы попросили сделать джазовую версию песни «В траве сидел кузнечик».

Нейросеть Suno работает бесплатно, но с ограничением 10 песен в день. Платная версия Suno Премиум стоит около 1000 рублей, существует несколько тарифов. Премиальным пользователям доступны новые модели нейросети и другие преимущества.

Как пользоваться нейросетью Udio AI

Нейросеть Udio AI — хороший аналог искусственного интеллекта Suno. Сервис был создан бывшими программистами из Google DeepMind и представлен в апреле 2024 года.

Пользоваться Udio AI очень просто, она очень похожа на предыдущую нейросеть. Для начала нужно войти в свой аккаунт, и проще всего это сделать через сторонние социальные сети.

Как пользоваться нейросетью Udio AI. Авторизация в Udio AI. Фото.

Авторизация в Udio AI

После этого нужно нажать на поисковое поле сверху страницы и вписать туда нужный жанр и дополнительные особенности. Если выбрать пункт «Custom», можно будет создать песню со своим текстом. Пункт «Instrumental» создает музыку без слов, а «Auto Generated» производит композицию автоматически. После всех настроек нужно нажать на кнопку «Create» и подождать несколько секунд — нейросеть создаст два варианта песни.

Как пользоваться нейросетью Udio AI. Как сочинять песни при помощи нейросети Udio AI. Фото.

Как сочинять песни при помощи нейросети Udio AI

Вот что у нас получилось, когда мы попросили сделать рок-версию «В траве сидел кузнечик». К нашему удивлению, текст пел Егор Летов, или кто-то на него похожий. В общем, результат был неожиданным, и искусственный интеллект предлагает широкий простор для экспериментов.

Бесплатная версия Udio Ai позволяет создавать строго ограниченное количество песен, и их длительность не превышает 40 секунд. Стоимость Udio Премиум составляет около 1000 рублей в месяц.

Читайте также: Почему роботы и нейросети делают нас ленивыми?

Riffusion — искусственный интеллект для генерации песен

Еще одна нейросеть для генерации музыки — Riffusion. Она лучше предыдущих тем, что позволяет создавать неограниченное количество песен в день. Но минусов она тоже не лишена, и они очень большие. Во-первых, качество созданных треков оставляет желать лучшего. Во-вторых, искусственный интеллект Riffusion создает треки длительностью до 12 секунд, чего очень мало. В-третьих, он не понимает русского языка, поэтому текст нужно писать только на английском.

Riffusion — искусственный интеллект для генерации песен. Главная страница Riffusion AI. Фото.

Главная страница Riffusion AI

Тем не менее пользоваться им интересно. Сначала нужно зарегистрироваться на сайте сервиса, а потом нажать на поле ввода вверху страницы. В поле «Lyrics» пишется текст будущей песни, а в «Describe the sound» перечисляются жанр и другие особенности. Текст можно сгенерировать той же нейросетью или даже надиктовать в микрофон, также сервис может помочь с описанием музыки.

Riffusion — искусственный интеллект для генерации песен. Создание блюзовой версии «В траве сидел кузнечик» на английском языке. Фото.

Создание блюзовой версии «В траве сидел кузнечик» на английском языке

Созданные композиции можно скачать в виде звукового файла или видео. Последний удобен для публикации в TikTok и YouTube Shorts.

Как при помощи нейросети Bing создавать текст и картинки. Рассказываем на личном примере

Как бесплатно создать музыку для YouTube

Для владельцев YouTube-каналов и других творческих личностей есть отличная нейросеть Mubert. Из-за авторских прав, в интернете нельзя использовать какую попало музыку в своих творениях, иначе контент могут заблокировать. Поэтому всегда нужно искать свободное от прав фоновое сопровождение. При помощи Mubert можно генерировать музыку по своему описанию.

Как бесплатно создать музыку для YouTube. Главная страница нейросети Mubert, на которой нужно авторизоваться. Фото.

Главная страница нейросети Mubert, на которой нужно авторизоваться

Пользоваться Mubert тоже проще простого. В поле для ввода нужно написать жанр, настроение и другие параметры будущей композиции. Рядом можно выбрать, что должно получиться в итоге: полноценный фоновый трек, повторяющийся звук, микс или небольшая перебивка. Также Mubert позволяет выбрать длину трека.

Как бесплатно создать музыку для YouTube. Окно генерации музыки при помощи Mubert. Фото.

Окно генерации музыки при помощи Mubert

После создания композиции, ее можно послушать. Чтобы скачать ее, сначала нужно указать свой YouTube-канал, а в описании видео с созданным звуковым оформлением необходимо указать ссылку на нейросеть. У Mubert есть платные тарифы, которые убирают звуковые метки сервиса.

Вот какая фоновая музыка у нас получилась:

Если вы знаете другие нейросети для создания музыки, пишите в комментариях нашего Дзен-канала или в Telegram!

Человечество начало пользоваться нейросетями относительно недавно. Кажется, это началось в 2022 году, когда вышла нейросеть Midjourney, которая умеет рисовать по словам и поражает красотой своих работ. Сегодня она платная, но существует как минимум 5 бесплатных альтернатив, которые тоже хорошо рисуют.

Как нейросети меняют Интернет и учатся креативности?

Как нейросети меняют Интернет и учатся креативности? ИИ-системы становятся все лучше и лучше, стремительно меняя Интернет и подход к креативности. Изображение: media.wired.com. Фото.

ИИ-системы становятся все лучше и лучше, стремительно меняя Интернет и подход к креативности. Изображение: media.wired.com

С момента своего дебюта генеративный искусственный интеллект (ИИ) окружен слухами о том, что его творческие способности уже превзошли человеческие. Недавнее исследование, опубликованное в журнале International Journal of Human-Computer Interaction, однако, предлагает более детальный взгляд на проблему. Авторы работы обнаружили, что хотя ИИ превосходно справляется с созданием разнообразных интерпретаций неоднозначных изображений, люди по-прежнему воспринимают работы, сделанные человеком как более креативные, а значит такие системы как ChatGPT от OpenAI, Llama от Meta и Google Bard по-прежнему нам уступают. Тем не менее их стремительная разработка и внедрение легли в основу дискуссии о влиянии ИИ-инструментов на общество, Интернет и труд. Вот почему по мере того, как ИИ продолжает развиваться и выполнять задачи, традиционно возложенные на людей, растет обеспокоенность по поводу вытеснения человеческого труда, последствий для образования и этических аспектов контента, создаваемого ИИ.

ИИ меняет Интернет

На протяжении десятилетий поиск информации в Интернете означал поиск в поисковых системах, таких как Google и Yandex и переход по предлагаемым ими ссылкам. Поиск был основным инструментов поиска информации причем настолько, что мало кто вообще об этом задумывался. Стоит ли говорить, что ситуация изменилась после триумфа генеративных ИИ-систем – поиск информации в сети теперь находится под управлением ИИ, что значительно упрощает процесс, так как искать ответы просто переходя по ссылкам теперь не нужно.

Звучит и выглядит здорово, однако Интернет тем временем заполняется контентом сомнительного качества, созданным с помощью искусственного интеллекта. Это, в свою очередь, ухудшает результаты поиска и делает традиционный поиск информации в сети не таким полезным и эффективным. Последствия этого сдвига могут быть серьезными, так как привычные поисковые системы могут быть практически полностью заменены на новые с внедренными ИИ-инструментами.

ИИ меняет Интернет. Интернет переживает кризис, и виноват в этом искусственный интеллект. Фото.

Интернет переживает кризис, и виноват в этом искусственный интеллект.

Еще одна проблема, связанная с приходом ИИ в глобальную паутину, как уже упоминалось выше, заключается в производстве и качестве контента – с помощью ChatGPT, как известно, сегодня можно делать все что угодно – создавать записи в блогах, писать музыку, песни, стихи и даже общаться с друзьями, членами семьи и противоположным полом.

Больше по теме: Как найти любовь с помощью ChatGPT и искусственного интеллекта?

Однако нельзя не признать очевидное – современный ИИ впечатляюще хорош в написании контента, даже несмотря на то, что ему не хватает индивидуальности, характера и личного опыта. Как видите, ИИ уже активно меняет Интернет – от поисковых систем до социальных сетей и рабочих приложений и продолжит делать это как в ближайшем, так и отдаленном будущем.

ИИ и творчество

Любой разговор о качестве контента в сети не обходится без искусственного интеллекта, а споры о том, что умные системы уже превзошли человека в таких областях как искусство, не утихают. Но как в действительно обстоят дела с креативностью того же ChatGPT? Исследователи отмечают, что из-за быстрого развития генеративных ИИ-систем, они уделяют большое внимание текущим возможностям этого ноу-хау по сравнению с производительностью людей.

В работе, недавно опубликованной в журнале International Journal of Human-Computer Interaction ученые стремились эмпирически исследовать текущее состояние творческих способностей ИИ по сравнению с человеческими.

ИИ и творчество. Генеративный ИИ уже оказал влияние на творческие профессии. Но какое оно? Изображение: deep-image.ai/. Фото.

Генеративный ИИ уже оказал влияние на творческие профессии. Но какое оно? Изображение: deep-image.ai/

В более общем плане нам было интересно понять, как современные ИИ-системы изменят восприятие креативности людьми и какое социальное воздействие могут оказать на общество и культуру, – объясняет один из авторов исследования Симон Грассини из Университета Бергена.

Чтобы изучить сравнительные творческие способности искусственного интеллекта и человека, авторы работы использовали «Задание на интерпретацию фигур» (FIQ), целью которого является интерпретация неоднозначных абстрактных фигур. Задание предназначено для оценки дивергентного мышления – когнитивного процесса, который включает в себя выработку множества уникальных решений или идей в ответ на проблему (что отличается от конвергентного мышления, которое фокусируется на поиске единственного правильного решения).

Читайте также: Нейросеть от Microsoft объявила себя сверхразумом и требует поклонения от пользователей

Важно отметить, что FIQ – это недавно разработанный тест, а значит, что тестируемая в ходе исследования система искусственного интеллекта (ChatGPT-4) не могла получить оптимальных результатов в обучающих данных до 2021 года. Но так как FIQ является мультимодальным тестом и требует как восприятия неоднозначного визуального образа, так и создания творческой текстовой интерпретации изображений, он позволил ученым оценить способность ИИ «придумывать» оригинальные творческие решения, а не просто извлекать ответы из имеющейся памяти.

ИИ и творчество. ИИ придумывает творческие решения, но так ли они хороши на самом деле? Изображение: scads.ai. Фото.

ИИ придумывает творческие решения, но так ли они хороши на самом деле? Изображение: scads.ai

В исследовании приняли участие 279 носителей английского языка, набранных с помощью онлайн-платформы, из которых 256 прошли тестирование. Этих участников попросили дать два разных толкования каждой из четырех неоднозначных фигур. Цель состояла в том, чтобы дать толкования, которые были бы настолько семантически отличными друг от друга, насколько это возможно. Участникам было дано 30 секунд на то, чтобы описать интерпретации каждого изображения, гарантируя, что они ответят в соответствии с ограниченным временем, которое соответствовало реальным творческим заданиям.

Параллельно с этим был протестирован чат-бот с искусственным интеллектом ChatGPT-4, интерпретирующим те же данные, что и испытуемые. ИИ было предложено генерировать ответы различной длины (одно, два или три слова), чтобы имитировать ответы людей (это было сделано для обеспечения объективного сравнения реакций человека и ИИ). Сеансы ИИ проводились несколько раз, чтобы собрать достоверный набор данных об интерпретациях, сгенерированных системой.

Хотите всегда быть в курсе последних новостей из мира науки и высоких технологий? Подписывайтесь на наш канал в Telegram – так вы точно не пропустите ничего интересного!

Как оценить креативность?

Чтобы оценить креативность, коллегия из одиннадцати судей, которые не имели представления о том, чьи именно интерпретации они оценивали (испытуемых или ИИ), оценила каждый ответ по шкале от 0 до 2. Оценка 0 указывала на базовый или нетворческий ответ, 1 – на творческий ответ, а 2 – на исключительно творческую интерпретацию. Судьями были студенты-психологи, которые оценивали ответы в рамках своей исследовательской подготовки или в обмен на зачет.

Как впоследствии обнаружили авторы работы, ChatGPT-4 был искусен в создании семантически разнообразных идей и продемонстрировал свою способность мыслить по-разному в разных контекстах. «ИИ продемонстрировал более высокий уровень гибкости в генерировании интерпретаций по сравнению с людьми», – говорится в статье.

Одним из удивительных аспектов было то, насколько хорошо языковая модель искусственного интеллекта работала с точки зрения генерации семантически разнообразных интерпретаций неоднозначных визуальных образов. Показатели гибкости ИИ, основанные на анализе семантической дистанции, были в среднем выше, чем у человека, что подчеркивает способности больших языковых моделей, – сказал Грассини в интервью PsyPost.

Как оценить креативность? ChaGPT-4 справляется со своими задачами намного лучше своей предыдущей версии. Изображение: cfotech.com.au. Фото.

ChaGPT-4 справляется со своими задачами намного лучше своей предыдущей версии. Изображение: cfotech.com.au

Однако, несмотря на способности ИИ, судьи в целом воспринимали ответы, данные людьми, как более креативные. Это говорит о том, что существуют аспекты креативности, которые выходят за рамки простого семантического разнообразия и, вероятно, связаны с богатством человеческого опыта и нюансами интерпретации символов.

Это интересно: Какую статью на Hi-News.ru написала нейросеть ChatGPT

Кроме того, ответы людей, набравших наибольшее количество баллов, превзошли лучшие ответы ИИ – в то время как ChatGPT выдал более узкий диапазон ответов, люди продемонстрировали более широкий спектр идей, что способствовало их более высоким показателям креативности.

ИИ преуспел в создании семантически разнообразных интерпретаций неоднозначных визуальных образов, однако, когда судьи субъективно оценивали креативность результатов работы ИИ по сравнению с ответами людей, они, как правило, воспринимали человеческие реакции как более креативные в целом, – объясняет Грассини.

Как оценить креативность? ИИ отлично справляются с поставленными задачами. Изображение: f8n-ipfs-production.imgix.net. Фото.

ИИ отлично справляются с поставленными задачами. Изображение: f8n-ipfs-production.imgix.net

Результаты работы свидетельствуют о том, что, хотя искусственный интеллект обладает развитыми способностями в создании разнообразных творческих идей и очень хорошо выполняет заданные инструкции, человеческая креативность по-прежнему выигрывает, по крайней мере, в том, как она воспринимается субъективно.

Не пропустите: Как изменятся технологии через 70 лет? Прогнозы ученых и ChatGPT-4

Исследование также подчеркивает значительный прогресс в развитии больших языковых моделей и их текущие ограничения по сравнению с человеческими когнитивными способностями, когда речь заходит о творческих задачах, требующих мультимодальной обработки данных и неограниченного воображения.

Ограничения и выводы

Новое исследование, каким бы новаторским не казалось, имеет ограничения и сосредоточено только на одном типе творческих заданий, связанных с неоднозначными визуальными образами, которые могут не распространяться на другие области творчества. Кроме того, отключение обучающих данных ИИ в сентябре 2021 года означает, что он, возможно, не был полностью оптимизирован для задачи FIQ, которая была разработана позже.

Отметим, что ранее проведенные исследования также показали интересные результаты – в одной из работ ИИ превзошел среднестатистического человека в тесте на творческое мышление. Еще одно исследование показало, что искусственный интеллект набрал высший балл по креативному мышлению, используя задание на дивергентное мышление, которое измеряло количество и уникальность идей, генерируемых в ответ на подсказки.

Ограничения и выводы. ИИ на данный момент не может победить нас в творчестве. Изображение: dq8l4o3au0fto.cloudfront.net. Фото.

ИИ на данный момент не может победить нас в творчестве. Изображение: dq8l4o3au0fto.cloudfront.net

Этот тип задач подчеркивает способность генерировать самые разнообразные идеи – область, в которой способность ИИ использовать обширные наборы данных и эффективность его алгоритмов дают ему преимущество перед обычным человеком.

Вам будет интересно: «Темная сторона» чат-ботов: от признаний в любви до разговоров с мертвыми

Так или иначе, долгосрочная цель исследователей этой области заключается в лучшем понимании когнитивных механизмов, которые лежат в основе креативности человека и того, как она соотносится с реализацией креативности в системах искусственного интеллекта. Дальнейшие исследования могут пролить свет на уникальные преимущества человеческого познания в сравнении с подходами ИИ (и наоборот).

В ОАЭ прошли гонки среди нейросетей — искусственный интеллект теперь в спорте

В ОАЭ прошли гонки среди нейросетей — искусственный интеллект теперь в спорте. В Абу-Даби прошли первые в мире гонки болидов, управляемых ИИ. Источник фото: www.businesswire.com. Фото.

В Абу-Даби прошли первые в мире гонки болидов, управляемых ИИ. Источник фото: www.businesswire.com

В Абу-Даби на днях прошло нетривиальное событие в мире спорта и высоких технологий — гонка беспилотных болидов. Соревнования, в которых приняли участие 8 команд, проходили в течение двух дней. В некоторой степени это был научный эксперимент, а также соревнования между программистами. Мероприятие вовсе не шуточное, так как призовой фонд составлял 2,25 миллиона долларов США. Первая автономная гоночная лига Абу-Даби (A2RL) собрала около 10 тысяч зрителей. Фактически, эта гонка раздвинула границы автономных технологий, а вместе с тем сделала экстремальный вид спорта еще более зрелищным и развлекательным.

Самые необычные гонки на болидах

Мероприятие было организовано ASPIRE, дочерней компанией Совета по исследованию передовых технологий Абу-Даби (ATRC). Задача гонок заключалась не только в развлечении зрителей, хотя с этим они тоже справились отлично. Например, в онлайне за соревнованиями наблюдали 600 тысяч зрителей. Однако основная цель заключалась в ускорении глобального развития автономных систем и технологий.

Также A2RL позволила проверить пределы человеческой изобретательности и возможности современного искусственного интеллекта. Участники имели в своем распоряжении несколько месяцев на подготовку. Чтобы все команды находились в равном положении, им были предоставлены одинаковые автомобили — Dallara Super Formula SF23. Поэтому победить мог только тот, чей искусственный интеллект был более совершенным.

Над адаптацией болидов к автономным гонкам работал Институт технологических инноваций (TII), дочерняя компания ASPIRE. Все автомобили были оснащены датчиками, электронными системами управления, и всем необходимым для автономной работы. Задача команд заключалась только в создании программного обеспечения.

Автономная гонка — почему это чрезвычайно сложно

В настоящее время ИИ добился невероятных результатов, о чем мы уже неоднократно рассказывали. Он создает новые лекарства, расшифровывает древние тексы, ставит диагнозы и раскрывает секреты картин великих художников. Однако в плане автономного управления автомобилем, достижений на самом деле не так много.

В настоящее время во всем мире существует только один коммерческий автомобиль, который обладает автопилотом третьего уровня — это Mercedes-Benz. Его автопилот позволяет водителю убрать руки с руля и не следить за дорогой. Правда, он все равно требует, чтобы водитель находился на водительском сидении и не спал. Кроме того, автопилот работает только на определенных трассах и при хороших погодных условия. Скорость движения в режиме автопилота не превышает 64 км/ч.

Обеспечить же спортивный автомобиль автопилотом еще сложнее. ИИ должен учитывать уровень сцепления шин с дорогой и их температуру, чтобы управлять болидом на пределе сцепления. Кроме того, он должен прогнозировать движение соперников и совершать успешные обгоны. То есть ИИ должен выполнять все то, что делает гонщик интуитивно.

На трассе одновременно находилось сразу четыре автомобиля, что также усложняло задачу. Тем не менее команды-участники, а точнее разработанные ими нейросети, справились с ней успешно. Гонки получились увлекательными и захватывающими.

Автономная гонка — почему это чрезвычайно сложно. Болид немецкой команды несется к финишу. Источник фото: www.businesswire.com. Фото.

Болид немецкой команды несется к финишу. Источник фото: www.businesswire.com

Искусственный интеллект против человека

На последнем круге автомобиль Мюнхенского технического университета обогнал болид итальянской команды UNIMORE, заняв первое место. Таким образом, немецкие разработчики стали первым победителем A2RL, так как их нейросеть оказалась самой совершенной.

Но еще более захватывающим зрелищем на гоночной трассе оказалась игра “ИИ против человеческой расы”. Институт технологических инноваций (TII) выставил свой автономный болид против профессионального гонщика Формулы-1 Даниила Квята. Гонка длилась в течение 45 минут. Как сообщает издание AETOSWire, гонщику удалось обойти искусственный интеллект на 10,38 секунды. Однако соревнование было невероятно захватывающим, и показало насколько автономный гоночный автомобиль ведет себя аналогично автомобилю, управляемому профессиональным гонщиком.

Искусственный интеллект против человека. Гоночная трасса, где проводились соревнования. Источник фото: www.businesswire.com. Фото.

Гоночная трасса, где проводились соревнования. Источник фото: www.businesswire.com

В целом же прошедшее событие говорит о том, что человечество находится на пороге новой эпохи, когда ИИ входит во все сферы жизни. Сделаем смелое предположение о том, что в недалеком будущем вообще не обязательно нужно будет уметь управлять автомобилем, чтобы самостоятельно на нем ездить. Машины станут полностью автономными, способными отвезти человека в любую точку по одной лишь голосовой команде.

Не забудьте подписаться на наши каналы в Дзен и Telegram, чтобы не пропустить самые интересные и невероятные научные открытия!

Что касается прогноза о развитии ИИ в течение ближайшего года, с ним вы можете ознакомиться по ссылке. Собственно говоря, нет сомнений в том, что он сбывается уже сегодня.