Глубинное обучение
Feb. 6th, 2017 10:19 pmОсновной проблемой, стоящей перед создателями ИИ, является сложность, длительность и дороговизна обучения нейронных сетей. Простые алгоритмы, такие как распознавание речи, текста, изображения; алгоритмы анализирующие дорожную ситуацию и управляющие транспортными средствами, обучаются относительно успешно, так как поток данных для анализа прост и легко доступен. Однако более сложные алгоритмы, способные принимать стратегические решения и разрабатывать тактику достижения целей, обучить значительно сложнее. Само формулирование задач для таких алгоритмов - долгий, дорогой и трудоёмкий процесс.
Однако, есть технология, позволяющая резко увеличить эффективность глубинного обучения. Это интеграция ИИ и компьютерных игр, написанных для человека. Поток данных, генерируемый компьютерной игрой, взаимодействующей с ИИ, позволяет создателям ИИ полностью автоматизировать процесс глубинного обучения, значительно ускорить и удешевить его.
Три года назад, в 2014 году, британская компания DeepMind опубликовала архитектуру нейронной сети, способной обучиться играть в классические игры 70-80-ых гг. для игровой консоли Atari 2600. В исследовании ИИ обучался игре в 49 видеоигр. В результате был достигнут уровень игры сравнимый с уровнем человека, а в 22 играх система смогла превзойти человека. ИИ DeepMind не запрограммирован жестко под конкретную игру. В начале обучения система ничего не знает о правилах игры и учится играть самостоятельно, используя на входе только пиксельное изображение игры и информацию об очках, получаемых в ходе игры.
В октябре 2015 программа для игры в го AlphaGo, разработанная DeepMind, победила чемпиона Европы по го Фань Хуэя (2-ой дан) со счётом 5—0. О новости было объявлено только 27 января 2016 года одновременно с публикацией статьи в журнале Nature.
Это первый в истории случай, когда ИИ выиграл в го у профессионала, до AlphaGo все известные ИИ играли в го только на любительском уровне. Го считается игрой, в которую компьютеру выиграть достаточно тяжело (в сравнении с аналогичными играми, например, c шахматами) в виду большого количества вариантов ходов, из-за этого традиционный для ИИ метод перебора ходов практически неприменим. В марте 2016 года программа выиграла матч у одно из сильнейших гоистов мира Ли Седоля со счетом 4-1.
В 2016 году компания DeepMind объявила о начале сотрудничества с компания Blizzard, занимающейся развитием популярной стратегической компьютерной игры Starcraft II. Целью данного сотрудничества является внедрение и обучение ИИ в современной стратегической компьютерной игре. По мнению разработчиков игры — Starcraft II является идеальной средой для обучения искусственного интеллекта, поскольку сложные правила игры достаточно отражают сложность и многогранность реального мира.
StarCraft II — идеальная среда, которая позволит вывести исследования, связанные с созданием искусственного интеллекта, на новый уровень. Сложные правила игры в достаточной мере отражают многогранность и хаотичность реального мира. Сначала вы учитесь добывать ресурсы, затем возводить простые строения, исследовать карту и искать противника. Стоит производить больше боевых единиц или лучше будет укрепить оборонительный рубеж? Будете вы совершать атаки на раннем этапе или сосредоточитесь на развитии?
В данный момент ведется работа над «Starcraft 2 API», которая позволяет ИИ полностью взаимодействовать с интерфейсом игры, принять участие в разработке может любой желающий, для таковых были опубликованы технические задачи, которые планируется реализовать в первом квартале 2017 года. Сам ИИ будет обучатся просматривая повторы других игроков — которые принимали участие в рейтинговых играх.
Один из основателей компании DeepMind, Демис Хассабис (Demis Hassabis) прекрасно понимает, какую угрозу человечеству несут создаваемые его фирмой алгоритмы. В 2014 году Google стал собственником компании и одним из условий сделки DeepMind с Google было создание последней коллегии по этическим проблемам искусственного интеллекта. Деятельность коллегии, растущее понимание реальности смертельной угрозы ИИ для человечества и стало причиной совместного заявления Хокинга и Маска.
Однако, есть технология, позволяющая резко увеличить эффективность глубинного обучения. Это интеграция ИИ и компьютерных игр, написанных для человека. Поток данных, генерируемый компьютерной игрой, взаимодействующей с ИИ, позволяет создателям ИИ полностью автоматизировать процесс глубинного обучения, значительно ускорить и удешевить его.
Три года назад, в 2014 году, британская компания DeepMind опубликовала архитектуру нейронной сети, способной обучиться играть в классические игры 70-80-ых гг. для игровой консоли Atari 2600. В исследовании ИИ обучался игре в 49 видеоигр. В результате был достигнут уровень игры сравнимый с уровнем человека, а в 22 играх система смогла превзойти человека. ИИ DeepMind не запрограммирован жестко под конкретную игру. В начале обучения система ничего не знает о правилах игры и учится играть самостоятельно, используя на входе только пиксельное изображение игры и информацию об очках, получаемых в ходе игры.
В октябре 2015 программа для игры в го AlphaGo, разработанная DeepMind, победила чемпиона Европы по го Фань Хуэя (2-ой дан) со счётом 5—0. О новости было объявлено только 27 января 2016 года одновременно с публикацией статьи в журнале Nature.
Это первый в истории случай, когда ИИ выиграл в го у профессионала, до AlphaGo все известные ИИ играли в го только на любительском уровне. Го считается игрой, в которую компьютеру выиграть достаточно тяжело (в сравнении с аналогичными играми, например, c шахматами) в виду большого количества вариантов ходов, из-за этого традиционный для ИИ метод перебора ходов практически неприменим. В марте 2016 года программа выиграла матч у одно из сильнейших гоистов мира Ли Седоля со счетом 4-1.
В 2016 году компания DeepMind объявила о начале сотрудничества с компания Blizzard, занимающейся развитием популярной стратегической компьютерной игры Starcraft II. Целью данного сотрудничества является внедрение и обучение ИИ в современной стратегической компьютерной игре. По мнению разработчиков игры — Starcraft II является идеальной средой для обучения искусственного интеллекта, поскольку сложные правила игры достаточно отражают сложность и многогранность реального мира.
StarCraft II — идеальная среда, которая позволит вывести исследования, связанные с созданием искусственного интеллекта, на новый уровень. Сложные правила игры в достаточной мере отражают многогранность и хаотичность реального мира. Сначала вы учитесь добывать ресурсы, затем возводить простые строения, исследовать карту и искать противника. Стоит производить больше боевых единиц или лучше будет укрепить оборонительный рубеж? Будете вы совершать атаки на раннем этапе или сосредоточитесь на развитии?
В данный момент ведется работа над «Starcraft 2 API», которая позволяет ИИ полностью взаимодействовать с интерфейсом игры, принять участие в разработке может любой желающий, для таковых были опубликованы технические задачи, которые планируется реализовать в первом квартале 2017 года. Сам ИИ будет обучатся просматривая повторы других игроков — которые принимали участие в рейтинговых играх.
Один из основателей компании DeepMind, Демис Хассабис (Demis Hassabis) прекрасно понимает, какую угрозу человечеству несут создаваемые его фирмой алгоритмы. В 2014 году Google стал собственником компании и одним из условий сделки DeepMind с Google было создание последней коллегии по этическим проблемам искусственного интеллекта. Деятельность коллегии, растущее понимание реальности смертельной угрозы ИИ для человечества и стало причиной совместного заявления Хокинга и Маска.