Нейросеть научили проходить видеоигру при помощи голосовых команд
26 апр 2017 15:35 #56214
от ICT
ICT создал тему: Нейросеть научили проходить видеоигру при помощи голосовых команд
Группа студентов из Стэнфордского университета научила нейросеть проходить одну из самых сложных игр для видеоприставки Atari 2600 при помощи голосовых команд на английском языке. Препринт исследования был опубликован на портале
arXiv.org
. Как пишет
N+1
, большинство систем искусственного интеллекта, предназначенных для прохождения видеоигр, используют обучение с подкреплением. Это метод, при котором система получает оценку своих действий от игры, зарабатывая очки за прохождение. Алгоритм совершает случайные действия до получения награды, а затем пытается повторить их в будущем. Стэнфордские студенты предложили иной подход к обучению. Чтобы ускорить процесс обучения, они решили сначала научить нейросеть понимать команды, написанные естественным языком, а для обучения использовали данные в виде пар команда - скриншот действия игрового персонажа. В качестве среды разработчики выбрали игру
"Месть Монтесумы"
, которая часто используется для тренировки искусственного интеллекта. Особенность этой игры состоит в том, что в ней редко встречаются "награды", необходимые для успешного прохождения, и поэтому искусственному интеллекту трудно понять, какие действия ведут к победе. После обучения командам разработчики дали нейросети набор команд, выполнение которых позволяло пройти каждую из игровых комнат. Чтобы проверить, что алгоритм научился понимать команды, авторы дали ему пройти комнату с набором команд вроде "поднимись по лестнице" без накопленных данных о предыдущих тренировках. В ходе этой проверки искусственный интеллект смог правильно интерпретировать команды человека и пройти уровень. При этом программа игнорировала команды, если находила более оптимальную стратегию для прохождения. Оценка, проведенная при помощи платформы для разработки и сравнения алгоритмов обучения с подкреплением OpenAI Gym, показала высокую эффективность новой методики. Разработанный студентами алгоритм набрал 3500 очков, против 2500 у самого успешного конкурента. На данный момент только алгоритм Google DeepMind набрал больше (6600 очков), однако его тренировка продолжалась вдвое дольше. В перспективе разработчики рассчитывают усовершенствовать алгоритм сделав его более независимым за счет уменьшения количества инструкций.
Ссылка на источник
Пожалуйста Войти или Регистрация, чтобы присоединиться к беседе.
Похожие статьи
Тема | Релевантность | Дата |
---|---|---|
Оплатить стоянку автомобиля в Москве можно при помощи голосовых команд | 20.92 | Пятница, 23 ноября 2018 |
Abbyy TextGrabber и FineScanner получили поддержку голосовых команд Siri | 15.49 | Понедельник, 17 сентября 2018 |
Граждане ОАЭ смогут проходить паспортный конроль в аэропорту Дубая при помощи смартфона | 13.82 | Четверг, 08 июня 2017 |
Нейросеть научили давать советы о любви | 13.67 | Пятница, 27 января 2017 |
Нейросеть научили взламывать пароли миллионами | 13.67 | Вторник, 19 сентября 2017 |
Нейросеть научили распознавать отретушированные снимки | 13.67 | Понедельник, 25 июня 2018 |
Пассажиры пекинского метро смогут проходить турникеты при помощи системы распознавания лиц и сканеров ладоней | 13.54 | Вторник, 19 июня 2018 |
Нейросеть научили составлять рецепт блюда по фотографии | 13.53 | Пятница, 21 июля 2017 |
В США нейросеть научили распознавать гомосексуалистов и лесбиянок по их фотографиям | 13.53 | Пятница, 08 сентября 2017 |
В Microsoft научили нейросеть рисовать изображения по их описанию | 13.53 | Пятница, 19 января 2018 |