Возможно, что использование искусственного интеллекта станет сопоставимо по своим социокультурным последствиям с изобретением письменности. Иллюстрация Pixabay
Идея создания разумной машины – это старая идея. Но реально работа над ней стала возможна только с появлением электронных вычислительных машин, снабженных набором программ. Общие идеи были сформулированы английским математиком Аланом Тьюрингом в статье «Может ли машина мыслить» (1950). С этого момента по проблеме искусственного интеллекта (ИИ) было выполнено большое количество работ, написано много интересных программ для ЭВМ. Наиболее яркий пример – программы для игры в шахматы или го, обыгрывающие чемпионов мира по этим играм.
Модельные мозги
Сейчас исследования и разработки в области искусственного интеллекта – тренд во всех развитых странах. С ними связывают новый технологический прорыв и даже будущую позицию той или иной страны на мировой арене.
Прогресс в этой области впечатляет, но по большому счету задача очевидным образом не решена: искусственный интеллект не создан. По мнению экспертов, один из возможных путей к его созданию – более тщательное изучение и моделирование интеллекта естественного, физическим носителем которого является человеческий мозг. В этом случае польза от искусственного интеллекта становится очевидной: если он физически будет создан по образу и подобию человеческого мозга, то станет возможным его использование для лечения заболеваний и повреждений мозга.
Однако надо отметить, что представления об ИИ, его возможностях вошли в фазу завышенного ожидания. Думается, общественный интерес, поддерживаемый теми, кто распоряжается финансами, выделяемыми на цифровизацию и инновационное развитие, требует некоторого охлаждения. Именно сейчас, прежде чем вкладывать в изучение и создание новых информационных технологий, связанных с ИИ, дополнительные силы и средства, надо задаться вопросом: действительно ли мы располагаем совокупностью оригинальных идей и подходов, способных существенно продвинуть вперед эту область, или повторяется ситуация с созданием «мыслящих» машин, имевшая место несколько десятилетий назад?
В силу объективных и субъективных причин тогда и сейчас игнорируются очень глубокие предвидения создателя теории информации Клода Шеннона: «Эффективное решение таких задач, как распознавание образов, автоматический перевод и т.п., может потребовать создания вычислительного устройства совершенно иного типа, чем то, которым мы располагаем сегодня. Как мне представляется, это будет устройство, естественное функционирование которого происходит с помощью образов, понятий и смутных подобий, а не с помощью последовательных операций над числами...»
Когда-то известный нейрофизиолог Дэвид Бернс написал, что было бы полезно, если бы авторы статей об организации нейронных сетей центральной нервной системы, прежде чем писать о методах, сообщали о своих предубеждениях и ожиданиях. «В конце концов, удручающе легко найти то, что ищешь, и чрезвычайно трудно увидеть то, чего заранее не ожидаешь или не стремишься найти», – отмечал Бернс.
Мои личные ожидания связаны с грядущими успехами в разработке общего ИИ, создание которого в конечном счете будет способствовать глубокому изменению человеческого общества. Возможно, что использование такого ИИ станет сопоставимо по своим социокультурным последствиям с изобретением письменности.
А мои предубеждения состоят в том, что без существенного изменения архитектуры искусственных нейронных сетей, которые лежат в основе алгоритмов ИИ, без моделей организации движений, «схемы тела» и учета двуполушарности, наличия в процессе тренировки хотя бы двух взаимодействующих обучаемых программ, без понимания и моделирования функций эмоционального интеллекта формирование полноценного ИИ невозможно.
Одна из проблем при обсуждении ИИ – языковая и связана с самим термином. В английском языке есть два слова для объяснения понятия «ум»: intellect, intelligence (Intellect – высоко развитая способность к рациональному мышлению; Intelligence – мыслить абстрактно). У нас, в русском языке, только один термин – интеллект, что и приводит к разночтениям. Далее я буду использовать второе английское значение этого термина. Специалисты считают, что интеллектом обладают и высшие животные, но в данной статье будем говорить только об интеллекте человека, имея в виду интеллектуальные функции взрослого человека, а не просто способность принимать целесообразные решения. В этом случае допустимо высказывание «умная собака», но никак не «интеллектуальная собака».
В некоторых случаях то, что мы называем интеллектуальной деятельностью, может сформироваться только при общении людей между собой. Среди большинства специалистов в области искусственного интеллекта и части психологов господствует компьютерная метафора, не учитывающая, как люди взаимодействуют в реальном мире. В рамках этой метафоры психика выступает в виде некоторого устройства с фиксированной способностью к преобразованию дискретных и бессмысленных сигналов в осознаваемые образы. Ограниченность такого подхода несомненна.
Речь идет о проблеме эмпирической достаточности при формировании естественного интеллекта и его моделировании в виде ИИ. Сам термин «эмпирическая достаточность» появился в работах по популяционной генетике. Проблема эмпирической достаточности связана с наличием некоторых переменных и параметров, которые принципиально не могут быть измерены на отдельной особи, поэтому, например, повышение точности измерений практически ничего не дает для ее разрешения. Требование эмпирической достаточности вводит ограничения, которые ставят под сомнение достижение целого ряда утверждений о возможностях ИИ в его современном виде.
Что вычисляют нейронные сети
Главное препятствие в создании ИИ состоит в следующем. Любая система – человек или автомат, – способная к разумному поведению в окружающем мире, должна иметь какое-то общее внутреннее представление этого мира, в терминах которого выражалась бы ее входная информация. Но для этого необходимо установить, что собой представляет такое описание, как оно приобретается и в чем его особенности в случае искусственного и естественного интеллекта.
Существенную роль при формировании интеллекта – а значит, и при создании ИИ – играет тело, которое задает систему отсчета. Фото Pexels |
Что же вычисляют нейронные сети мозга? В такой постановке этот вопрос является метафорическим. Вычисления, как и измерения, – это сугубо человеческие действия. В нервной системе ничего подобного операциям с числами не происходит. Когда мы задаемся вопросом, что же в конечном счете вычисляет мозг, то следует задуматься и над тем, что вычисляет камень, скатывающийся с горы под действием силы тяжести, или планеты, вращающиеся вокруг Солнца.
Конечно, нечто аналогичное математическим операциям во всех этих случаях имеет место быть. Но нужно четко проводить различие между совокупностью уравнений, используемых для задания системы, и самой системой. Другими словами, точные соотношения не обязательно должны быть выражены в числах. Нечисленные модели и отношения – особенно при моделировании нейронных сетей – должны получить равные права с классическими численными моделями.
Основной инструмент реализации ИИ – искусственные нейронные сети. Ставя задачу, определяя входной образ, задавая условия задачи, мы задаем описание состояния. Функция нейронной сети – перевод описания состояния в описание процесса, который обеспечивает новое описание состояния – цель. Возможно, что нейронные сети и есть тот самый инструмент, который реализует идеологию моделирования (вычислительного эксперимента): вместо того чтобы использовать или придумывать вычислительные методы для решения системы уравнений, мы строим конструкцию из специальных элементов – нейронов, связываем их между собой определенным образом и заставляем их функционировать. Результат – искомое решение.
Другими словами, используется подход, эквивалентный аналоговому моделированию. Нейронная сеть, как Протей, принимает форму любой задачи, с которой сталкивается организм. По сути дела, она вычисляет некоторую функцию от большого числа аргументов, которые подаются на входы сети, а значение функции снимается с выходов. Задача – подбор таких значений параметров, чтобы функция, реализуемая нейронной сетью, хорошо приближала некоторую заданную функцию, чьи значения известны по образцам, на которых производится «обучение». Вообще говоря, обучение – это системная функция. О ней имеет смысл говорить лишь в том случае, когда обучаемый изменяет свое понимание ситуации. Поэтому для нейронных сетей надо использовать другой термин, например «настройка» или «градиентная оптимизация».
Есть разные варианты «обучения» нейронных сетей. Но все они обязательно разбиты на такты и отделены от процесса рабочего функционирования сети. На каждом такте обучения сети предъявляется образец, она вычисляет значение функции с текущими значениями параметров, после чего ей сообщается величина допущенной ошибки.
Таким образом, «обучение» в существующих нейронных моделях означает не что иное, как градиентную оптимизацию. Причем выбор точек, в которых вычисляется функция, равно как и определение допущенной ошибки, остается на долю «учителя».
Асинхронная структура
Основной недостаток архитектуры искусственных нейронных сетей, используемых при реализации ИИ, состоит в том, что во всех моделях нейронных сетей, реализующих те или иные парадигмы, выделяется специальное время для получения результата, после чего сеть готова к обработке новой информации. Необходима другая архитектура, предполагающая, что обработка данных никогда не прекращается, а результат работы может потребоваться в процессе вычислений. Более того, входные данные могут поступать от источников, о которых не было известно до начала процесса вычисления. Таким образом, необходимо иметь асинхронную параллельную структуру с децентрализацией принятия решения.
Еще один недостаток существующей архитектуры искусственных нейронных сетей. Предполагается, что в них реализуются последовательные стадии или уровни переработки информации. Например, при виде напечатанного слова мы сначала определяем графические признаки отдельных букв, затем идентифицируем буквы, потом идентифицируем само слово, осознаем его значение и наконец относим его к некоторой категории или семантическому типу.
Однако возможна совсем другая модель отношений между активностями разных уровней. Эта модель также иерархическая. То, что происходит на разных уровнях, скорее вложено друг в друга, чем происходит последовательно. Ориентировочные схемы реализуются одновременно, и каждая из них представляет активную направленную на поиск информации структуру, но разной степени обобщения. Получается нечто похожее на «китайский ящик».
Поведение человека при решении творческих задач зависит не только от интеллекта, но также от интуиции, здравого смысла и других методов мышления. Поведение различно в зависимости от смысла получаемой информации (семантика) и готовности реагировать (прагматика). То есть от контекста. Сам же контекст определяется предысторией и может быть совершенно различным, несмотря на одну и ту же словесную формулировку.
Существенную роль при формировании интеллекта – а значит, и при создании ИИ – играет собственное тело, которое задает систему отсчета. Часть принципиально важной для принятия решений информации хранится в «памяти» суставов и мышц. Мозг сам по себе, в отрыве от тела, мыслить (вычислять) не может. Следовательно, в системах ИИ с необходимостью должна быть заложена «схема тела».
Важную роль в обработке информации нервной системой играет специализация полушарий головного мозга, взаимодополняющих друг друга в процессе реализации познавательных функций. Для полушарий характерна комплементарность специализированных функций, которая дает целостностному мозгу возможность конструировать модели реальности, качественно отличные от простого суммирования моделей каждого из полушарий. Возможно, что именно специфическое взаимодействие между совокупностями информации, перерабатываемой по отдельности двумя полушариями, является информационным базисом физиологического компонента сознания. Поэтому архитектура ИИ должна предусматривать двуполушарность.
С учетом вышесказанного архитектура искусственных нейронных сетей для «интеллекта третьей волны» должна претерпеть принципиальные изменения. Это будет означать отказ от классической схемы перцептрона в пользу иерархических сетевых структур, представляющих «объяснимый искусственный интеллект». То есть позволяющий такие реализации, в рамках которых алгоритмы должны быть в состоянии объяснить, как они приходят к выводам того, что сделано.
Перцептрон как класс моделей мозга свою выдающуюся роль сыграл. Для целого ряда важных приложений он будет в модифицированном виде сохранять свою значимость и дальше. Но вероятно, при его конструировании были получены правильные ответы на неправильно поставленные вопросы. Приходит время для исправления ситуации. Наметки новой архитектуры уже существуют.
Чарлз Дарвин когда-то написал о том, что для прогресса науки вредны лишь неверные факты. Неверные теоретические обобщения, если они подкреплены какими-нибудь данными, не столь вредны, так как любой специалист может найти удовлетворение в их опровержении. А если ошибочность этих взглядов доказана, то закрывается один из путей к будущим ошибкам и открывается дорога к истине.
Борис Владимирский
Ростов-на-Дону
www.ng.ru