Dar
17.02.2016, 10:47
http://hightech.fm/2016/02/16/quixote_ai
Алгоритм научился отличать добро от зла
Ученые из Технологического института Джорджии прививают искусственному интеллекту понятие этики, используя короткие рассказы. При этом программа Quixote получает награды за приверженность этическим идеалам и наказание за аморальный выбор.
Во главе исследования стоят ученые Марк Ридл и Брент Харрисон. В прошлом году Ридл представил проект Scheherezade — умный генератор сюжетных линий на основе краудсорсинга. Этот же алгоритм был использован для обучения Quixote эмпатии.
Scheherezade прокладывает структуру сюжетных элементов и выбирает наиболее «надежный» путь.
После этого в работу включается Quixote и превращает сюжетный граф в дерево с узлами (в данном случае — сюжетными коллизиями), которые связаны между собой различными событиями. Затем программа либо награждает, либо наказывает интеллектуального агента в зависимости от выбранного им развития событий. В основе этого метода лежит обучение методом проб и ошибок (reinforcement learning).
По мнению ученых, этот алгоритм идеально подходит именно для интеллектуальных агентов с ограниченным функционалом, которые должны взаимодействовать с людьми. Благодаря этому искусственный интеллект научится различать плохое и хорошее и будет внушать большее доверие людям.
Алгоритм научился отличать добро от зла
Ученые из Технологического института Джорджии прививают искусственному интеллекту понятие этики, используя короткие рассказы. При этом программа Quixote получает награды за приверженность этическим идеалам и наказание за аморальный выбор.
Во главе исследования стоят ученые Марк Ридл и Брент Харрисон. В прошлом году Ридл представил проект Scheherezade — умный генератор сюжетных линий на основе краудсорсинга. Этот же алгоритм был использован для обучения Quixote эмпатии.
Scheherezade прокладывает структуру сюжетных элементов и выбирает наиболее «надежный» путь.
После этого в работу включается Quixote и превращает сюжетный граф в дерево с узлами (в данном случае — сюжетными коллизиями), которые связаны между собой различными событиями. Затем программа либо награждает, либо наказывает интеллектуального агента в зависимости от выбранного им развития событий. В основе этого метода лежит обучение методом проб и ошибок (reinforcement learning).
По мнению ученых, этот алгоритм идеально подходит именно для интеллектуальных агентов с ограниченным функционалом, которые должны взаимодействовать с людьми. Благодаря этому искусственный интеллект научится различать плохое и хорошее и будет внушать большее доверие людям.