Что может быть искусственным андроид

Шесть самых современных андроидов, намекающих на наше синтетическое будущее

Гуманоидные роботы устрашающе близко подобрались к нашей реальности. Правильно собранные, с использованием правильных материалов и правильных алгоритмов движения они становятся почти неотличимыми от своих органических копий. Почти. Самые новейшие из них уже способны разговаривать как мы, ходить как мы, а также выражать или по крайней мере имитировать целый спектр разнообразных эмоций. Некоторые из них уже вполне способны поддерживать разговор, а некоторые даже запоминают, когда в последний раз вы с ними говорили и о чем конкретно.

Кажется, еще немного — и они станут незаменимыми помощниками для пожилых, детей и любого другого человека, которому требуется ежедневная помощь по дому. К слову, уже проводятся целые исследования на тему эффективности гуманоидных роботов в поддержке в игровой форме детей с аутизмом.

Однако благодаря таким людям, как Илон Маск, слишком громко озвучивающим свои опасения по поводу искусственного интеллекта, среди общества разгораются жаркие споры о том, насколько сильно мы хотим, чтобы эти гуманоидные роботы походили на нас. Как и Маск, некоторые из нас задаются вопросом о том, как будет выглядеть наше будущее, когда искусственный интеллект обретет совершенную форму человеческого облика. Но такие вопросы совершенно не беспокоят, например, суперреалистичного робота-гуманоида Софию, созданную компанией Hanson Robotics, которая говорит, что «ИИ принесет пользу этому миру».

И все же мы еще очень далеки от продвинутой робототехники. Предстоит проделать еще немало работы перед тем, как мы сможем встретиться лицом к лицу с машиной, и даже не будет подозревать о том, кто же на самом деле перед нами находится. Хорошо это или плохо, но работа продолжается, и не сказать, что инженеры не продвинулись в этом направлении. Ниже будет представлено шесть сверхреалистичных роботов, с которыми робототехники подобрались ближе всего к ожидаемому и одновременно пугающему результату.

Первый андроид-телеведущий

В 2014 году японские ученые с гордостью представили первого в мире андроида, читающего новости. Железный ведущий с имением Kodomoroid в прямом эфире прочитал сообщение о землетрясении и проведенном ФБР очередном рейде на преступников.

Несмотря на то, что он (или она) в настоящий момент пребывает «на пенсии» в токийском Национальном музее развивающихся наук и инноваций, андроид по-прежнему находится в активном состоянии. Он помогает посетителям и собирает информацию для будущих исследований по вопросам взаимодействия между человекоподобными андроидами и людьми.

BINA48

BINA48 – это весьма смышленый робот, выпущенный в 2010 году компанией Terasem Movement под руководством предпринимателя и автора робота, Матрина Ротблатта. Дизайнер и исследователь робототехники Дэвид Хэнсон создал андроида BINA48 по образу и подобию жены Ротблатта, Бины Аспен Ротблатт.

Газета New York Times даже взяла у робота интервью. Он появлялся в National Geographic и даже путешествовал по миру, появившись в ряде телевизионных шоу. Посмотреть на то, как проходило интервью с BINA48, можно ниже.

Geminoid DK

GeminoidDK представляет собой ультрареалистичного гуманоидного робота, является результатом совместной работы частной японской компании и японского Осакского университета и был создан под руководством Хироси Исигуро, главы университетской Лаборатории интеллектуальной робототехники.

Робот был разработан по образу датского профессора Хенрика Шарфе из Университета Ольборг. Вполне неудивительно, что прототипом послужил человек, чья работа связана с философской сферой. В частности, проблемой, которой занимается профессор, является поиск ответа на вопрос о том, что определяет истину от лжи. Что интересно, андроид позаимствовал не только внешность Шафре. Он также унаследовал его привычки, поведение, манеру речи, а также мимику и язык тела.

Читайте также:  Как определить местоположение планшета android

Джунко Чихира

Этот сверхреалистичный робот был создан компанией Toshiba и работает полный день в туристическом информационном центре в Токио. Она приветствует посетителей центра и информирует их о текущих мероприятиях. Она знает японский, китайский, английский и немецкий языки и даже может на них петь.

Джунко Чихира была создана в рамках подготовки Японии к Олимпийским играм 2020 года. Планируется, что помогать туристам и обслуживающему персоналу во время наплыва поклонников спорта со всего мира будут не только информационные андроиды. Правительство страны также хочет задействовать автономных дронов и другие автоматизированные машины и сервисы.

Надин

Этот гуманоид был создан Наньянским технологическим университетом Сингапура. Ее имя Надин, и она рада общению практически по любому вопросу, который вы ей зададите. Она способна запоминать вещи, о которых вы говорили с ней ранее, и в следующий раз она обязательно вам о них напомнит.

Надин – отличный пример так называемых «социальных роботов», гуманоидов, способных стать идеальным товарищем для любого, будь то пожилой человек, ребенок или любой, кому требуется особая помощь в форме социального контакта.

София

Возможно, одним из самых современных и самых известных человекоподобных андроидов, показанных общественности, является София. Она множество раз появлялась в различных в телевизионных программах и в частности американском шоу The Tonight Show Starring Jimmy Fallon (Ночное шоу с Джимми Фэллоном). Андроида создала компания Hanson Robotics.

Она способна выражать целый набор различных эмоций с помощью своей имитации мимики и жестов и весьма активно жестикулирует своими руками. Для андроида даже создали ее собственный веб-сайт, где можно найти ее полную биографию, записанную ее голосом.

«Я больше, чем просто технология. Я настоящая электронная девушка. Я бы очень хотела попасть в реальный мир и жить вместе с людьми. Я готова помогать, развлекать, оказывать помощь пожилым и обучать многим интересным вещам детей».

Источник

Искусственный интеллект под Android с открытым API


Только ленивый не знает сегодня о том, что такое голосовой помощник Siri. Когда два года назад этот продукт был показан на презентации нового iPhone 4S, многие посмотрели на развитие IT-индустрии по-новому. Действительно, искусственный интеллект в кармане, понимающий естественную речь, еще не показывал никто.

Многие в то время начали говорить о том, что Apple может уже на следующем WWDC предоставить всем программистам под iOS возможность использовать открытое API ассистента Siri для своих собственных программ. Картина вырисовывалась радужной — любое приложение смогло бы реагировать на пользовательские фразы, исполняя различные команды. Действительно, если в магазине AppStore так много разных полезных приложений, почему бы им не дать возможность управления голосом? Тем более что такой вид коммуникации с пользователем, как речь, быстро стал трендовым после выхода iPhone 4s.

О том, удалось ли это сделать Apple, и что удалось сделать нам, читайте далее.

Время шло, а API у Siri не появлялось


Надо отметить, что большинство путает просто распознавание речи и собственно возможности ассистента как искусственного интеллекта. Между этими двумя понятиями огромная разница — решения по распознаванию речи (speech-to-text) присутствуют на рынке уже давно (к примеру, в ОС Android она доступна всем желающим), а вот создать открытую технологию диалоговой системы (с поддержанием контекста, извлечением смысла и т.д.) не удавалось еще никому. Многие также не задумывались о том количестве проблем, которые возникнут при общем доступе множества программ к единому мозговому центру AI в лице Siri. А также о том числе совершенно новых технологий, с которым программистам пришлось бы иметь дело.

Читайте также:  Как увеличить system android

Идея создать голосового ассистента с открытым и доступным для всех API “искусственного интеллекта” уже витала на тот момент в наших головах, и мы решили ее осуществить.

Ассистент на русском


Наша небольшая группа инициативных разработчиков взялась за проект, известный ныне как Ассистент на русском.

Стоит заметить, что создание подобной голосовой платформы предполагает наличие знаний в таких специализированных областях как технологии распознавания (ASR) и синтеза речи (TTS), а также NLP, позволяющего извлекать смысл из пользовательской речи и управлять контекстом диалога. Именно этот компонент является связующим для любой системы искусственного интеллекта и позволяет не просто превратить речь в текст, но и понять, чего хочет пользователь. Это и отличает технологию распознавания речи от технологии искусственного интеллекта.

Нашей целью было сделать доступный инструмент для использования этих технологий.

К моменту запуска приложение умело решать повседневные задачи пользователя с помощью речи. А пользователи Android версии JellyBean могли выполнять голосовые команды без подключения к интернету.

Открытое API искусственного интеллекта

С первого дня каждый сервис “Ассистента на русском” создавался на основе той же платформы, которую мы планировали открывать для всех в будущем. Этот принцип по-английски называется “Eating your own dog food”. Таким образом мы могли параллельно проектировать голосовую архитектуру и функциональность самого ассистента.

Результатом нашей работы стало приложение с открытым API и “гибридной” технологией NLP, которая, с одной стороны, дает возможность программировать голосовой интерфейс без всяких серверов, с использованием только вашего девайса и Android SDK, а с другой стороны, переносить часть решений в облако по необходимости. Например, ваши контакты не отправляются ни на какие серверы (привет, Siri), а список всех городов, с которыми работает, скажем, сервис “Погода”, не хранится на клиенте.

Все сервисы ассистента создавались разными программистами, часть которых не имеют специальных знаний в области ASR, TTS или NLP. При этом особых сложностей в использовании API нашего “Ассистента” не было, так как мы ставили себе задачу сделать открытую, доступную и понятную всем платформу.

“Ассистент на русском” использует возможность межпроцессного взаимодействия (IPC) в ОС Android, так что сам ассистент выступает в роли голосового интерфейса между пользователем и вашим собственным приложением. При этом ваше приложение может отображать свой GUI в интерфейсе ассистента — для этого используются RemoteViews и другие похожие техники.

Что умеет API

За счет API “Ассистента на русском” можно создавать и гораздо более интересные варианты, где функциональность ассистента выходит за пределы устройства, на котором он работает. Например, стороннее приложение “АссистентКоннект”, используя API нашего ассистента, дает возможность управлять голосом различными устройствами “умного” дома и домашним кинотеатром.

При этом “АссистентКоннект” является обычным андроид-приложением, которое умеет отправлять запросы по HTTP-протоколу кинотеатру XBMC и ZWave контроллеру умного дома Vera.

Также можно посмотреть, как с помощью того же аддона можно управлять, например, обычным браузером. Все это демонстрирует возможности API ассистента, позволяющего создавать новый вид коммуникации с пользователями.

Как получить API

Попробовать API в своих собственных проектах можно уже сейчас, скачав его с нашего сайта. Сейчас мы даем только краткое описание того, как можно его использовать. В следующих статьях мы более детально опишем технические подробности реализации всей платформы “Ассистента на русском”, а также расскажем о нюансах использования самого API.

Данная статья — самый первый шаг по публикации API ассистента. В ближайшем будущем многое будет меняться, мы планируем предоставить больше возможностей, в том числе каталог дополнений, с помощью которого пользователь сможет находить в PlayStore все приложения с поддержкой функции голосового управления, а также коммерческое SDK для создания собственных голосовых ассистентов.

Читайте также:  Инстаграм для самсунг андроид

Основы

Для внедрения библиотеки с API ассистента в свое приложение вам не понадобится изучать никаких новых языков программирования или технологий. Все, что вам нужно — это Android SDK и IDE для разработки. Мы предлагаем использовать Android Studio. Подключение библиотек осуществляется просто указанием зависимостей в файле build.gradle

API позволяет установить связь между вашим приложением и “Ассистентом на русском” таким образом, что все фразы пользователя, по смыслу подходящие вашему приложению, будут перенаправлены специальному сервису, который вы должны реализовать. Мы называем такие сервисы Агентами.

Агенты и модули

Ассистент заранее извлечет все необходимые данные из текста фразы и предоставит их агенту в виде семантического дерева разбора — Токена. Это происходит благодаря специальным грамматикам (Модулям), которые вам нужно сформировать для вашего сервиса.

Модуль — это набор команд с шаблонами (Паттернами) фраз, на которые должен реагировать ваш агент (синтаксис паттернов детально описан в документации к API). Агент в любой момент может ограничить набор таких модулей, доступных пользователю, тем самым сформировав контекст диалога. Вот пример простейшего модуля:

Модуль — это просто xml-файл, который нужно хранить в ресурсной директории xml вашего приложения. Здесь приведен пример простейшего модуля с двумя командами и очень простыми паттернами.
Как видите, модуль не содержит никакого управляющего кода, так как весь код будет описан в классе вашего агента. Это отражает основной принцип нашего подхода к голосовому API — декларативная часть, описывающая грамматику диалога, отделена от управляющего кода, который реализует логику обработки и полностью независим от языка.

Агент — это, по сути, надстройка над обычными Android-сервисами. Он реализует интерфейс между ассистентом и логикой вашего приложения.

Вот простой пример того, как агент может обработать команды, описанные ранее в модуле. Абстракция AssistantAgent предоставляет множество различных методов для обработки команд, управления контекстом диалога, вызовом сторонних активностей и т.д.

Request содержит всю необходимую информацию о запросе пользователя — идентификатор команды, контент запроса (токен или что-то другое), сессию и т.д. На любой запрос агент должен сформировать ответ — Response, содержащий контент ответа и, при необходимости, инструкции ассистенту о переключении контекста диалога.

Это пример формирования быстрого ответа в одну строку. А вот чуть более сложный пример:

Здесь ответ кроме контента в виде строки (можно передавать и другие виды контента, например GUI) содержит еще и информацию об изменении контекста диалога. Теперь пользователю будут доступны команды только из модуля R.xml.name, и после озвучки ассистентом ответа от агента автоматически включится микрофон — это называется “модальный режим”.

Каждый агент — это сервис, и поэтому его надо описать в манифесте приложения — AndroidManifest.xml

Здесь указывается основной модуль агента и пакет того “Ассистента на русском”, с которым агент может работать.

После сборки вашего приложения и установки на девайс “Ассистент на русском” подхватит информацию из вашего манифеста и загрузит модуль. А затем будет перенаправлять все подходящие запросы от пользователя к вашему агенту, если NLP-движок ассистента посчитает, что фраза подходит лучше всего под паттерны команд модуля.

Продолжение следует

В этом посте мы очень кратко привели основы использования нашего API, описав базовые принципы работы с ним. Конечно, библиотека ассистента предоставляет множество более сложных функций: удаленные и нечеткие паттерны, RemoteViews, динамическое изменение контента ответа, извлечение данных из фраз и многое другое. Все это описано в документации, которую мы будем дополнять по ходу доработок в самой библиотеке.

Мы предлагаем вам попробовать голосовое управление в ваших собственных проектах, вступить в сообщество разработчиков и помочь в улучшении этого инструмента.

Источник

Оцените статью