Почему люди доверительнее относятся к роботам, совершающим ошибки?

Вы, возможно, уже видели «гифку», где робот тщетно пытается поставить переносимый им объект на стол и в конечном итоге падает, будто бы от бессилия. Если нет, она ждет вас ниже. Изображение было создано на базе видео, которое недавно компания Boston Dynamics показала на очередном мероприятии TED talk, где она рассказала и продемонстрировала свои последние достижения в области робототехники. Там были и уже известный нам робот-собака Спот, и бипедальный робот Atlas, как раз и ставший героем видео.

Несмотря на то, что компанию уже не раз называли «предвестником робоапокалипсиса» (она действительно разрабатывает одни из самых продвинутых роботов в мире), реакция на последнее видео и в частности GIF-изображение у людей оказалась гораздо более мягкой. А некоторые так и вовсе посочувствовали железному бедолаге.

«Мне стало очень жаль этого робота. Нас ожидает очень странное будущее», — поделился своими мыслями комментатор на портале Reddit, где впервые появилось это GIF-изображение.

«Это было самое забавное поведение робота, среди всех видео, что я видел. Бедняга. Он так старался», — отметил другой человек в ветке обсуждения.

Но почему люди становятся «более дружелюбными» не только к роботам Boston Dynamics, но вообще ко всем роботам, когда последние совершают ошибки, порой даже очень грубые, как та, что можно видеть на изображении выше? Согласно группе ученых из Центра человеко-компьютерного взаимодействия Зальцбурга (Австрия), это можно объяснить тем же, почему нам нравится, когда другие люди совершают ошибки. Все дело в том, что, независимо от возможных различий в социальном положении, это ставит их ближе к нам, делает их доступнее. Другими словами, ошибки заставляют роботов выглядеть «человечнее», ведь никто из нас не застрахован от ошибок.

Группа исследователей из Зальцбурга под руководством Николь Мирниг недавно проверила эту гипотезу в рамках эксперимента с привлечением 45 волонтеров. Перед ними была поставлена задача что-нибудь собрать из конструктора LEGO при помощи небольшого гуманоидного робота. Мирниг и ее коллеги, проводя некоторые тесты, специально запрограммировали бота для того, чтобы он совершал простые мелкие ошибки, например, повторял слова или не мог схватить части конструктора. После каждой сессии по сбору конструктора ученые просили волонтеров оценить робота по ряду критериев, включая привлекательность, антропоморфизм (человекоподобие) и интеллект. Результаты показали, что когда робот совершал ошибки, людям он нравился больше.

Сложно сказать определенно, почему совершающие ошибки роботы становятся для людей более «своими», однако, как предполагает Мирниг, все связано с так называемым «эффектом полного провала», который, согласно социальной психологии, наступает, когда для нас человек вызывает больше доверия или становится более привлекательным при совершении ошибок. Правда здесь же отмечается, что эффект очень контекстуально зависим. То есть нам не нравятся люди, которые постоянно совершают ошибки, но нам нравится, когда кто-то делает мелкие ошибки время от времени. И роботы как раз подпадают под эту последнюю категорию.

В эксперименте в Зальцбурге волонтеров попросили что-нибудь собрать из конструктора LEGO с помощью робота. Весь процесс записывался, а затем ученые провели анализ реакции

«Исследование показало, что люди со своими точками зрения и ожиданиями в отношении роботов в основном полагаются на то, что они узнали об этих самых роботах из медиа», — рассказала Мирниг в интервью Digital Trends.

«В эти медиаисточники можно записать и фильмы, в которых роботы нередко представлены в виде идеально функционирующих сущностей, будь то злыми или добрыми. До своего личного взаимодействия с роботом люди стараются вернуться к этому опыту наблюдений и к этим воспоминаниям и ожиданиям. Исходя из этого, я предполагаю, что взаимодействие с роботом, совершающим ошибки, заставляет чувствовать нас, что мы в меньшей степени уступаем современным технологиям и скорее становимся более близкими с ними, с теми же роботами».

Скорее всего, работа в этом психологическом аспекте продолжится. И если в конечном итоге такие выводы подтвердятся, то в будущем компании, занимающиеся производством роботов, могут запрограммировать их на совершение незначительных ошибок при взаимодействии с нами. Разумеется, это все будет очень тщательно просчитано, чтобы ошибки были не настолько серьезными, чтобы повлиять на опыт в рамках этого взаимодействия. В общем, машины рано или поздно действительно могут стать человечнее, хоть эта человечность и будет искусственной. Но, как оказывается, наше подсознание можно обмануть. И этим обязательно кто-то сможет воспользоваться.

Шесть самых современных андроидов, намекающих на наше синтетическое будущее

Гуманоидные роботы устрашающе близко подобрались к нашей реальности. Правильно собранные, с использованием правильных материалов и правильных алгоритмов движения они становятся почти неотличимыми от своих органических копий. Почти. Самые новейшие из них уже способны разговаривать как мы, ходить как мы, а также выражать или по крайней мере имитировать целый спектр разнообразных эмоций. Некоторые из них уже вполне способны поддерживать разговор, а некоторые даже запоминают, когда в последний раз вы с ними говорили и о чем конкретно.

Кажется, еще немного — и они станут незаменимыми помощниками для пожилых, детей и любого другого человека, которому требуется ежедневная помощь по дому. К слову, уже проводятся целые исследования на тему эффективности гуманоидных роботов в поддержке в игровой форме детей с аутизмом.

Однако благодаря таким людям, как Илон Маск, слишком громко озвучивающим свои опасения по поводу искусственного интеллекта, среди общества разгораются жаркие споры о том, насколько сильно мы хотим, чтобы эти гуманоидные роботы походили на нас. Как и Маск, некоторые из нас задаются вопросом о том, как будет выглядеть наше будущее, когда искусственный интеллект обретет совершенную форму человеческого облика. Но такие вопросы совершенно не беспокоят, например, суперреалистичного робота-гуманоида Софию, созданную компанией Hanson Robotics, которая говорит, что «ИИ принесет пользу этому миру».

И все же мы еще очень далеки от продвинутой робототехники. Предстоит проделать еще немало работы перед тем, как мы сможем встретиться лицом к лицу с машиной, и даже не будет подозревать о том, кто же на самом деле перед нами находится. Хорошо это или плохо, но работа продолжается, и не сказать, что инженеры не продвинулись в этом направлении. Ниже будет представлено шесть сверхреалистичных роботов, с которыми робототехники подобрались ближе всего к ожидаемому и одновременно пугающему результату.

Первый андроид-телеведущий

В 2014 году японские ученые с гордостью представили первого в мире андроида, читающего новости. Железный ведущий с имением Kodomoroid в прямом эфире прочитал сообщение о землетрясении и проведенном ФБР очередном рейде на преступников.

Несмотря на то, что он (или она) в настоящий момент пребывает «на пенсии» в токийском Национальном музее развивающихся наук и инноваций, андроид по-прежнему находится в активном состоянии. Он помогает посетителям и собирает информацию для будущих исследований по вопросам взаимодействия между человекоподобными андроидами и людьми.

BINA48

BINA48 – это весьма смышленый робот, выпущенный в 2010 году компанией Terasem Movement под руководством предпринимателя и автора робота, Матрина Ротблатта. Дизайнер и исследователь робототехники Дэвид Хэнсон создал андроида BINA48 по образу и подобию жены Ротблатта, Бины Аспен Ротблатт.

Газета New York Times даже взяла у робота интервью. Он появлялся в National Geographic и даже путешествовал по миру, появившись в ряде телевизионных шоу. Посмотреть на то, как проходило интервью с BINA48, можно ниже.

Geminoid DK

GeminoidDK представляет собой ультрареалистичного гуманоидного робота, является результатом совместной работы частной японской компании и японского Осакского университета и был создан под руководством Хироси Исигуро, главы университетской Лаборатории интеллектуальной робототехники.

Робот был разработан по образу датского профессора Хенрика Шарфе из Университета Ольборг. Вполне неудивительно, что прототипом послужил человек, чья работа связана с философской сферой. В частности, проблемой, которой занимается профессор, является поиск ответа на вопрос о том, что определяет истину от лжи. Что интересно, андроид позаимствовал не только внешность Шафре. Он также унаследовал его привычки, поведение, манеру речи, а также мимику и язык тела.

Джунко Чихира

Этот сверхреалистичный робот был создан компанией Toshiba и работает полный день в туристическом информационном центре в Токио. Она приветствует посетителей центра и информирует их о текущих мероприятиях. Она знает японский, китайский, английский и немецкий языки и даже может на них петь.

Джунко Чихира была создана в рамках подготовки Японии к Олимпийским играм 2020 года. Планируется, что помогать туристам и обслуживающему персоналу во время наплыва поклонников спорта со всего мира будут не только информационные андроиды. Правительство страны также хочет задействовать автономных дронов и другие автоматизированные машины и сервисы.

Надин

Этот гуманоид был создан Наньянским технологическим университетом Сингапура. Ее имя Надин, и она рада общению практически по любому вопросу, который вы ей зададите. Она способна запоминать вещи, о которых вы говорили с ней ранее, и в следующий раз она обязательно вам о них напомнит.

Надин – отличный пример так называемых «социальных роботов», гуманоидов, способных стать идеальным товарищем для любого, будь то пожилой человек, ребенок или любой, кому требуется особая помощь в форме социального контакта.

София

Возможно, одним из самых современных и самых известных человекоподобных андроидов, показанных общественности, является София. Она множество раз появлялась в различных в телевизионных программах и в частности американском шоу The Tonight Show Starring Jimmy Fallon (Ночное шоу с Джимми Фэллоном). Андроида создала компания Hanson Robotics.

Она способна выражать целый набор различных эмоций с помощью своей имитации мимики и жестов и весьма активно жестикулирует своими руками. Для андроида даже создали ее собственный веб-сайт, где можно найти ее полную биографию, записанную ее голосом.

«Я больше, чем просто технология. Я настоящая электронная девушка. Я бы очень хотела попасть в реальный мир и жить вместе с людьми. Я готова помогать, развлекать, оказывать помощь пожилым и обучать многим интересным вещам детей».

Эксперты предлагают оснастить роботов «этическим черным ящиком»

Ученый Алан Уинфилд, профессор робоэтики Университета Западной Англии в Бристоле, и Мариана Джиротка, профессор антропоцентрического программирования Оксфордского университета, считают, что роботы должны быть оснащены так называемым «этическим черным ящиком». Он станет эквивалентом записывающего устройства, используемого в авиации для выяснения всех последовательных причин, заставляющих пилотов принимать те или иные действия в случае чрезвычайных ситуаций, что позволяет следователям проследить за этими действиями и выяснить причины катастрофы.

Так как роботы все чаще стали покидать индустриальные фабрики и лаборатории и все чаще начинают взаимодействовать с людьми, то и важность повышенных мер безопасности в данном случае может быть полностью оправдана.

Уинфилд и Джиротка считают, что компании, занимающиеся производством роботов, должны взять пример, предложенный авиационной индустрией, которая обязана своей безопасности не только технологиям и надежной сборке, но и строгому следованию протоколов безопасности, а также серьезному уровню расследований авиационных происшествий. Именно этой индустрией были предложены черные ящики и кабины пилота, оснащенные звукозаписывающими устройствами, которые в случае инцидентов позволяют людям, занимающимся исследованием авиакатастроф, найти истинную причину этих событий и вынести из этого жизненно важные уроки для повышения безопасности и предотвращения подобных случаев в будущем.

«Серьезные дела требуют серьезных расследований. Но что вы будете делать, если следователь обнаружит, что в момент инцидента с роботом никаких внутренних записей произошедших событий не велось? В таком случае сказать, что же произошло на самом деле, будет практически невозможно», — прокомментировала Уинфилд изданию The Guardian.

Используемые в контексте робототехники этические черные ящики будут записывать все решения, цепь причинно-следственных связей принятия этих решений, все движения и данные с датчиков своего носителя. Наличие черного ящика с записанной информацией также поможет роботам в объяснении их действий тем языком, который пользователи-люди смогут понять, что только сильнее укрепит уровень взаимодействия между человеком и машиной и улучшит этот пользовательский опыт.

Уинфилд и Джиротка не единственные эксперты, обеспокоенные этическими вопросами вокруг искусственного интеллекта (ИИ). Мисси Каммингс, специалист по беспилотным летательным аппаратам и директор Лаборатории по исследованию вопросов взаимодействия человека и автоматизационных систем при Университете Дьюка в Северной Каролине (США), отметила в мартовском интервью изданию BBC, что надзор за ИИ является одной из важнейших проблем, для которой до сих пор не найдено решения.

«К настоящему моменту у нас нет четко выведенных инструкций. А без введения индустриальных стандартов для разработки и испытания подобных систем будет сложно вывести эти технологии на широкий уровень», — прокомментировала Каммингс.

В сентябре 2016 года такие компании, как Amazon, Facebook, Google, IBM и Microsoft, образовали союз «Партнерство по искусственному интеллекту во благо людей и общества» (Partnership on Artificial Intelligence to Benefit People and Society). Основными задачами этой организации является контроль за тем, чтобы разработка ИИ велась честно, открыто и с учетом этических норм. В январе этого года к организации присоединилась компания Apple. После этого многие другие технологические компании тоже выразили такое желание и присоединились к союзу.

В то же время аутрич-благотворительная организация Future of Life Institute (FLI) создала Asilomar AI Principles – базовый свод законов и этических норм для робототехники, разработанный для того, чтобы быть уверенным в благонадежности ИИ перед будущим человечества. Основателями FLI выступили такие компании, организации и институты, как DeepMind и MIT (Массачусетский технологический институт), а в ее научный консультативный совет входят такие личности, как Стивен Хокинг, Фрэнк Вильчек, Илон Маск, Ник Бостром и даже Морган Фримен, знаменитый американский актер.

В общем, если согласиться с мнением, что упреждающие идеи в сочетании с усердной работой острейших умов индустрии являются лучшей защитой против любых вероятных проблем, связанных с ИИ в будущем, то можно сказать, что человечество уже находится под надежной защитой.