Широко распространено мнение, что благодаря новейшим достижениям в области исследований искусственного интеллекта живые и умные машины скоро появятся на горизонте. Машины понимают голосовые команды, различают картины, водят автомобили и играют в игры лучше нас. Сколько осталось ждать, пока они не начнут ходить среди нас?
Недавно выпущенный отчет Белого дома на тему искусственного интеллекта принимает скептическую позицию. В нем говорится, что в ближайшие 20 лет мы вряд ли увидим машины, «демонстрирующие интеллектуальные возможности, сопоставимые с человеческими или превосходящие их», однако в грядущие годы «машины будут достигать человеческих возможностей выполнения все большего числа задач». Однако этот отчет упускает несколько важных вещей.
Исследователь искусственного интеллекта Аренд Хинтце утверждает, что отчет сосредоточен исключительно на «скучном типе ИИ». Он обрывает на полуслове целую гигантскую ветвь исследований ИИ, как эволюция помогает разрабатывать все более качественные системы ИИ и как вычислительные модели помогают нам понимать эволюцию нашего собственного человеческого интеллекта.
В докладе основное внимание уделяется, как говорит ученый, основным инструментам ИИ: машинному обучению и глубокому обучению. Такого рода технологии позволили роботам хорошо играть в викторины и обыгрывать мастеров игры в го. Эти системы могут обрабатывать колоссальные объемы данных и производить сложные вычисления очень быстро. Но им не хватает элемента, который будет иметь ключевое значение в создании разумных машин, которые мы хотели бы иметь в будущем.
Нам нужно больше, чем научить машины учиться. Нам нужно преодолеть границы, которые определяют четыре различных типа искусственного интеллекта. Барьеры, которые отделяют машин от нас — и нас от них.
I тип ИИ: реактивные машины
Самые базовые типы систем ИИ сугубо реактивны и не могут ни формировать воспоминания, ни использовать прошлый опыт для информирования текущих решений. Deep Blue, играющий в шахматы суперкомпьютер IBM, который обыграл гроссмейстера Гарри Каспарова в конце 1990-х, — это прекрасный пример такого типа машин.
Deep Blue может идентифицировать фигуры на шахматной доске и знает, как они двигаются. Он может делать прогнозы ходов, как своих, так и оппонента. И выбирает наиболее оптимальные ходы из возможных.
Однако он не имеет никакого представления о прошлом и памяти произошедшего. Если не считать редко используемого специфического для шахмат правила не повторять один и тот же ход три раза, Deep Blue игнорирует все, что было до текущего момента. Он просто смотрит на фигуры на шахматной доске и выбирает следующий ход.
Такой тип интеллекта включает компьютер, непосредственно воспринимающий мир и действующий на основании того, что он видит. Он не опирается на внутреннюю концепцию мира. В своей работе исследователь ИИ Родни Брукс утверждал, что мы должны строить только такие машины. По его мнению, люди не очень хороши в программировании точных моделируемых миров для компьютеров, как говорят, в создании «репрезентации», представления мира.
Современные интеллектуальные машины, которыми мы восхищаемся, либо не имеют такой концепции мира, либо она очень ограничена и касается определенных задач. Инновации в дизайне Deep Blue заключались не в том, чтобы расширить число возможных ходов, которые рассматривает компьютер. Вместо этого разработчики нашли способ сузить его видение, чтобы отказаться от некоторых возможных ходов в будущем в зависимости от того, как они оцениваются.
Точно так же и AlphaGo Google, который обыграл чемпиона мира по го, не может оценивать возможные будущие ходы. Его метод анализа более изощренный, чем у Deep Blue: он использует нейронную сеть для оценки разворачивания игры.
Эти методы улучшают возможности систем ИИ, позволяют лучше играть в определенные игры, но их непросто изменить или применить к другим ситуациям. Эти компьютерные типы воображения не имеют концепции мира в целом — и значит, они не могут выходить за рамки выполнения определенных задач, для которых их сделали, и их легко одурачить.
Они не могут интерактивно участвовать в мире, а нам хотелось бы однажды увидеть именно такие системы ИИ. Вместо этого машины будут вести себя точно так же, как и всегда, сталкиваясь с одной и той же ситуацией. Если мы хотим сделать систему ИИ надежной и заслуживающей доверия, то это хорошо: вы хотели бы, чтобы ваш автономный автомобиль был надежным. Но если мы хотим, чтобы машины взаимодействовали с нами и с миром, это плохо. Простейшие системы ИИ никогда не заскучают, их нельзя заинтересовать или расстроить.
II тип ИИ: ограниченная память
II тип включает машины, которые могут заглядывать в прошлое. Самоуправляемые автомобили уже немного способны на это. К примеру, они наблюдают скорость и направление других автомобилей. Это нельзя делать одномоментно, для этого нужно идентифицировать конкретные объекты и наблюдать за ними с течением времени.
Эти наблюдения добавляются к заранее запрограммированным у самоуправляемых автомобилей репрезентациям мира, которые включают дорожную разметку, светофоры и другие важные элементы. Они подключаются, когда автомобиль решает изменить полосу движения и не столкнуться с другим.
Но эти простые частички информации о прошлом лишь временные. Они не будут сохранены как часть библиотеки опыта автомобиля, в которой он сможет учиться, как это делают люди-водители, накапливая опыт в течение многих лет за рулем.
Как же нам построить системы ИИ, которые выстраивают полные представления, помнят о своем опыте и учатся справляться с новыми ситуациями? Брук был прав в том, что сделать это очень сложно. Возможно, стоит поискать вдохновения в дарвиновской эволюции?
III тип ИИ: теория разума
Здесь нужно сделать небольшую остановку и назвать этот момент важным разрывом между машинами, которые у нас есть, и машинами, которые мы хотели бы строить в будущем. Тем не менее сперва стоит конкретнее очертить представления, которые придется создавать машинам.
Машины следующего, более продвинутого класса не только формируют представления мира, но и других агентов или сущностей мира. В психологии это называется «теория разума» — понимание того, что у людей, существ и предметов в мире могут быть мысли и эмоции, которые влияют на их собственное поведение.
Это важно для того, как мы, люди, формируем общество, поскольку обеспечивает нам социальные взаимодействия. Без понимания мотивов и намерений друг друга и не принимая во внимание то, что кто-то еще знает обо мне или об окружающей среде, работать вместе в лучшем случае трудно, а в худшем — невозможно.
Если системы ИИ действительно когда-нибудь будут бродить среди нас, они должны будут понимать, что мы думаем и чувствуем, хотя бы на уровне предположений. И соответственно подстраивать свое поведение.
IV тип ИИ: самосознание
Конечная цель развития искусственного интеллекта — создание систем, которые могут формировать представления о себе. В конечном счете исследователи ИИ должны не только понять сознание, но и создать машин с сознанием.
Это в некотором смысле расширение «теории разума», которая упоминалась в предыдущем типе ИИ. Говоря о сознании, также имеют в виду и самосознание. «Я хочу эту вещь» отличается от «я знаю, что хочу эту вещь». Сознательные существа осознают себя, знают о своих внутренних состояниях и могут предчувствовать поведение или чувства других. Мы предполагаем, что кто-то сигналящий нам в пробке зол или нетерпелив, потому что именно так мы могли бы чувствовать себя на его месте. Без теории разума мы не могли бы делать таких умозаключений.
Хотя мы, вероятно, далеки от создания самосознательных машин, мы должны сосредоточить наши усилия на пути к пониманию памяти, обучения и способности принимать решения относительно прошлого опыта. Это важный шаг к пониманию человеческого разума самого по себе. И это очень важно, если мы хотим разрабатывать или развивать машины, которые могут не только классифицировать то, что видят перед собой, но и многое другое.
Источник: