Развитие сознания машин

При обсуждении понятия жизни и сознания интересно наблюдать за взаимодействием между тремя дисциплинами — биологии, нейрофизиологии и информационных технологий. Большинство биологов не любит сравнения организмов и роботов, поэтому они обычно отвергают саму идею сознания у роботов («углеродный шовинизм»). Точка зрения большинства нейрофизиологов близка к функционализму — сознание не связано напрямую с используемыми компонентами нижних уровней, сознание связано с организацией этих компонент. Таким образом, по сравнению с биологами большее число нейрофизиологов согласны с тем, что в принципе можно себе представить не биологическое сознание. С другой стороны, нейрофизиологи являются представителями «мозгового шовинизма», который в свою очередь критикуют ряд биологов, например ботаники.

По понятным причинам наибольшее число сторонников машинного сознания находится среди представителей ИИ и робототехников. Они внимательно слушают, что говорят биологи и нейрофизиологи, и далее они по возможности пробуют использовать эти идеи при конструировании роботов. Я поискал, что робототехники пишут про сознание и в конце концов остановился на обзоре Джеймса Реггиа 2013 года (Подъем машинного сознания). По-моему, он неплохо суммирует современные направления исследований в этом направлении. По крайней мере, более поздние статьи, которые мне попались на глаза, в целом укладываются в приведенную в обзоре классификацию.

Обзор начинается с рассмотрения философских позиций в отношении сознания. Также рассматриваются взгляды нейрофизиологов. Говорится о том, что функционализм без проблем укладываются в вычислительные модели сознания, а проблематичным остается только вопрос феноменального сознания. В этом смысле вопрос машинного сознания не отличается от проблем в современной нейрофизиологии. Предлагается следующая классификация вычислительных моделей сознания, которая совпадает с тем, что можно увидеть в нейрофизиологии:

  • глобальное рабочее пространство (a global workspace)
  • интегрированная информация (information integration)
  • внутренняя модель себя (an internal self-model)
  • репрезентации высоких уровней (higher-level representations)
  • механизмы внимания (attention mechanisms)

Глобальное рабочее пространство (a global workspace)

Вычислительные архитектуры:

IDA (Intelligent Distributed Agent) — многочисленные codelets, исполняемые параллельно и обменивающиеся информацией посредством глобального рабочего пространства. IDA не использует искусственные нейронные сети.

LIDA (Learning IDA) — расширение IDA с использованием обучения.

Нейрональное глобальное рабочее пространство с использование искусственных нейронных сетей. Большинство работ используют именно это направление.

Существуют модели, которые моделируют эксперименты по эффекту Струпа — задержку реакции при прочтении слов, обозначающих цвета, когда цвет слова не совпадает со значением слова (например, зеленый написано красным цветом).

Вопрос, почему именно сознание связано с глобальным рабочим пространством остается открытым.

Интегрированная информация (information integration)

Теория интегрированной информации Тонони предсказывает, что меру psi можно использовать для предсказания наличия сознания — чем больше psi, тем лучше.

Число работ по компьютерному моделированию в этом направлении ограничено, поскольку точный расчет psi занимает немыслимое вычислительное время.

В обзоре рассматривается пример глаза робота, который был натренирован смотреть на красные блоки и избегать синих блоков. В роботе был введен блок эмоций, который контролировал этот процесс. Даже в этом простом случае точный расчет psi занимал бы 10^9000 лет, поэтому использовались приблизительные оценки. Полученные результаты противоречили теории глобального рабочего пространства.

Отмечается, что проблематичным является не только расчет psi, но также отсутствие эталонных значений, посредством которых можно было бы говорить о достижении сознания.

Внутренняя модель себя (an internal self-model)

Эта часть обзора начинается с рассмотрения работ Томаса Метцингера о том, что мозг конструирует как модель внешнего мира, так и модель самого организма. Эта внутренняя модель организма всегда присутствует и поэтому она отождествляется с самим собой. Метцингер является сторонником теории виртуального мира (все, что мы видим и ощущаем является конструкцией мозга), поэтому автор обзора рассматривает примеры виртуальных машин, которые конструируются в «мозге робота». Действительно, без проблем можно себе представить, что в ПО робота возникает такая виртуальная машина, которая отображает как внешний мир, так и состояние самого робота.

Говорится, что использование внутренних моделей состояния робота при проектировании роботов является частью робототехники и приводятся примеры. Приводятся примеры роботов, которые умеют распознавать свое отражение в зеркале.

Приводится пример робота, который формирует свою внутреннюю модель (каким образом конечности присоединены к телу) в результате движений и взаимодействия с окружающей средой.

Репрезентации высоких уровней (higher-level representations)

Другой подход к сознанию связан с использованием репрезентаций высоких уровней. Идея заключается в том, что бессознательные процессы связаны с обработкой информации на низких уровнях, сознательные на высоких. В качестве высоких уровнях обработки информации рассматривают либо символьные операции, либо мысли высокого уровня.

Существует несколько вычислительных когнитивных архитектур, обеспечивающих многоуровневую обработку информации (например, CLARION и CERA-CRANIUM). Разные уровни взаимодействуют друг с другом и в определенной степени более высокие уровни представляют информацию более низких уровней других образом. Отмечу, что в разработке ПО нет проблем с многими уровнями организации и тем, что иногда называют нисходящей причинностью, когда более высокие уровни организации каузально воздействуют на более низкие уровни организации.

Другой путь исследований связан с включением в искусственные нейронные сети метакогнитивные подсистемы (мысли высоких уровней). В этом случае нейронная сеть более высокого уровня следит за работой нейронной сети более низкого уровня. Предполагается, что правильные предсказания сетей более высокого уровня говорит о достижения уровня осознания.

Рассматривается пример моделирования псевдослепоты (blindsight). Когнитивные компьютерные системы с успехом воспроизводят этот феномен.

Механизмы внимания (attention mechanisms)

Говорится, что в каждый момент времени человек осознает только крайне небольшую часть информации, поступающей в органы чувств. Таким образом, важно понимать механизмы внимания, которые управляют, что именно будет осознано в данный момент времени.

Внимание и осознание не тождественны друг другу, но тем не менее эти понятия близки. Поэтому большая часть исследований посвящена именно механизмам внимания.

В обзоре рассматривается несколько компьютерных архитектур, которые организуют возникновение внимания. Возникновение внимания отождествляется с появлением осознания. Более подробно разбирается пример связанный с CODAM (Corollary Discharge of Attention Movement).

В завершение статьи James Reggia говорит следующее:

  • Вычислительные модели стали частью методологии по изучению сознания.
  • В рамках существующих вычислительных моделей удалось успешно воплотить то, что можно назвать коррелятами сознательной обработки информации.
  • В рамках программы машинного сознания пока не удалось привести примеры появления феноменального сознания или даже показать, что такое возможно.

В статье Reggia не рассматривается экстерналистская теория сознания — сознание связано не с мозгом, а с взаимодействием организма с внешним миром. Отмечу, что среди робототехников можно найти исследования в этом направлении — см. ниже ссылку на статью Maye & Engel.

В целом я бы сказал, что ситуация в нейрофизиологии и машинного сознания достаточно похожа. В нейрофизиологии есть специфические возбуждения нейронных сетей, которые нейрофизиологи относят к сознательному восприятию, все остальное считается происходящих на бессознательном уровне. Аналогично при программировании роботов и ИИ большинство операций относят к бессознательному, а ряд операций к сознательному. Разница только в том, что нейрофизиологи получают разделение на сознательное и бессознательное при использовании интроспекции испытуемых, а в информационных технологий такое разделение проводится по аналогии с тем, что говорят нейрофизиологи.

В целом можно уже вполне представить себе ситуацию, когда робототехники создадут робота, который будут сообщать, какие стимулы он воспринимает. При проектировании робота сознательные процессы программируются одним из представленных выше образом. Возникает следующий вопрос. Представим себе, что такой робот будет передан нейрофизиологам и им будет разрешено проводить над роботом любые эксперименты методами нейрофизиологией с задачей распознать корреляты сознательных процессов робота. Совпадут ли найденные нейрофизиологами корреляты сознания с теми, что запрограммировали робототехники?

Информация

Reggia, J. A. (2013). The rise of machine consciousness: Studying consciousness with computational models. Neural Networks, 44, 112-131.

Maye, A., & Engel, A. K. (2016). The sensorimotor account of sensory consciousness: implications for machine consciousness. Journal of Consciousness Studies, 23(5-6), 177-202.

Обсуждение

https://evgeniirudnyi.livejournal.com/198351.html

08.12.2012 Поведение и интеллект

Я не думаю, что здесь все так просто. Ориентация на поведенческие реакции на пути определения интеллекта по-моему заводит в тупик. Два примера.

Давайте рассмотрим следующую ситуацию. Вы сидите на берегу реки и наслаждаетесь закатом. Вы замечаете, что невдалеке сидят животные, и похоже, что они также наслаждаются закатом. Какие выводы из этого следуют?

Теперь рассмотрим ИИ. Представителя ИИ занимаются поиском алгоритмов, которые описывает определенное поведение, и затем на основе их создают роботов (например беспилотный автомобиль). Однако на этом пути сознание просто не нужно. Когда алгоритм найден, он просто функционирует. Поэтому найти сознание в ИИ похоже невозможно.

Если же мы сравниваем человека и беспилотный автомобиль, видна например разница, описанная в первой ситуации. Беспилотный автомобиль не может наслаждаться закатом. Это также показывает, что ценности как таковые, возможны у человека, но не у беспилотного автомобиля. Возможно ли ценности у животных — вопрос открытый. Современная наука здесь бессильна.


Опубликовано

в

,

©