Сайт находится в разработке, и возможность его наполнения пока недоступна.
Сайт «Scio me nescire» («Я знаю, что я ничего не знаю») — это рубрикатор, содержащий ссылки на тему искусственного интеллекта и смежные с ней. Сайт имеет образовательное и научное предназначение. Он включает в себя как ознакомительные материалы, так и передовые публикации в области искусственного интеллекта и когнитивистики. Зачастую новые идеи рождаются на стыке научных дисциплин, и исследователи, находящиеся в творческом поиске, стремятся покинуть зону комфорта и выйти за границы уже изученного. Этот сайт может послужить для них навигатором по незнакомым областям знаний.
Сфера интересов сайта включает в себя такие научные направления, как философия познания, когнитивная психология, лингвистика, неврология и теория искусственного интеллекта, которая, в свою очередь, охватывает логику, метаматематику (теорию типов, теорию категорий, теорию вычислимости, теорию переписывания), байесовскую статистику, теорию вероятности, теорию информации, теорию игр, теорию управления, теорию графов, а также машинное обучение, искусственные нейронные сети, информатику, кибернетику, программирование, робототехнику и многое другое.
Пространство оригинальных идей, появившихся в сфере искусственного интеллекта за последние 70 лет, напоминает бескрайний океан. Требуются коллективные усилия для того, чтобы составить хоть сколь-нибудь полный список всего этого многообразия. Задача сайта состоит в том, чтобы силами посетителей сформировать справочный рубрикатор по темам искусственного интеллекта и когнитивистики. При этом сайт не преследует цель стать второй Википедией или полным каталогом всех статей в рассматриваемой области. Наоборот, задача сайта — сконцентрироваться на концептуальной части многочисленных публикаций, выделить из них те, которые освещают суть новых направлений и открытий, чем предоставить возможность максимально широкого охвата с минимальными затратами.
Суть идеи всегда можно изложить кратко и понятно. Как говорил Резерфорд, «Если учёный не может объяснить уборщице в лаборатории смысл своей работы, то он сам не понимает, что он делает». Однако понятное изложение требует немалых усилий и таланта, которому краткость — сестра. Например, Блез Паскаль извинялся в одном из своих писем: «Я написал бы короче, но у меня не было времени». Существует также риск чрезмерного упрощения. Известен принцип Эйнштейна — «Всё должно быть изложено так просто, как только возможно, но не проще». Из сказанного видно, что краткое и ясное изложение обладает большой ценностью, поэтому сайт интересуется не только академическими статьями, но и качественными вводными, ознакомительными, обзорными и пояснительными материалами.
Сайт задуман как платформа для обмена опытом и интересными ссылками. Наполнение столь сложного рубрикатора коллективными усилиями невозможно без «творческого беспорядка» и споров, поэтому посетители сайта призываются к сотрудничеству в духе интеллектуальной скромности. Эпиграф сайта, принадлежащий отцу науки Сократу, напоминает о том, что наука начинается с признания незнания, а бравада эрудированностью — это, скорее, признак научной незрелости (см. эффект Даннинга-Крюгера). Как говорил Стивен Хокинг, «Главный враг знания — не невежество, а иллюзия знания». Всё знать невозможно. Один человек лучше разбирается в одной теме, другой — в другой. Если Вы чего-то не знаете, но хотите это узнать, разместите эту тему в каталоге в виде пустой или частично заполненной ветви. Пусть знающие люди наполнят её содержанием и улучшат её структуру. Если Вы обнаружите в некоторых новых ветвях терминологическую путаницу и плохую наполненность — это повод предложить свои улучшения.
С технической точки зрения, сайт представляет собой древовидный рубрикатор с перекрестными ссылками и частичной упорядоченностью. В столь сложной предметной области невозможно построить единую таксономию, поэтому рубрикатор состоит из множества локально упорядоченных каталогов, которые ссылаются друг на друга. В случае, если простая ссылка принадлежит сразу нескольким темам, она будет упомянута в каждой из них. Если же целый подкаталог должен быть упомянут в нескольких более крупных каталогах, то он будет частью иерархии лишь в одном из них, а в других каталогах он будет указан как ссылка. Это делается для того, чтобы избежать рекурсивного эффекта при навигации, создающего ощущение бесконечной глубины. Кроме древовидного рубрикатора записи также помечаются тэгами-терминами, которые составляют отдельный тезаурус.
Каждый зарегистрированный пользователь может сформировать заявку на редактирование каталога, которая может касаться ссылки, термина, ветви или всего сайта в целом. Допускаются также публичные комментарии в свободной форме. Все запросы на добавление ссылок и реструктуризацию каталога, а также комментарии проходят предварительную модерацию. Приносим извинения в случае задержки.
Модераторы сайта оставляют за собой право отклонить запрос на изменение каталога. Существует множество причин, по которым ссылка может быть отклонена, например: несоответствие сфере интересов сайта, отсутствие новизны по отношению к уже опубликованным материалам, низкое качество, низкая значимость. С одной стороны, сайт стремится предоставить максимальный тематический и концептуальный охват, с другой стороны, в рамках одной идеи выбираются наиболее значимые и удобные для усвоения материалы, чтобы облегчить читателю вхождение в тему и не утопить его в море избыточной технической информации.
Сайт принимает ссылки не только на академические статьи, но и на материалы, которые могут носить любительский характер. Зачастую гениальные мысли бывают высказаны первый раз в необычном виде и бывают отвергнуты научным сообществом в силу своей новизны. То, что сегодня считается «псевдонаучным», завтра может оказаться научным мейнстримом. В контексте данного сайта, научным считается всё то, что высказано в сократовском духе поиска истины в соответствии с правилами логики и экспериментальными фактами.
Основной язык сайта русский, однако в силу того, что большинство работ по теме сайта опубликованы на английском языке и на русский не переведены, освоение материалов без знания английского языка будет весьма затруднительным. По этой же причине все термины дублируются на английском языке, чтобы сохранить их связь с оригиналом. Имеется также английская версия сайта для иностранных посетителей.
Интерес к исследованию природы мышления имеет глубокие корни, и то, что сегодня называется «искусственным интеллектом», в разные эпохи имело свои названия. Археологические источники свидетельствуют о том, что на протяжении всей своей истории человечество стремилось проникнуть в тайну законов разума. «Познай самого себя», — гласило античное изречение на храме Аполлона в Дельфах. Наиболее развитый подход в этом направлении открыли древнегреческие философы, заложившие основы научной методики в V-III веках до нашей эры. Их подход преследовал конкретные практические цели, в числе которых были и попытки автоматизации процессов мышления. Одна из первых таких попыток — это изобретение Евклидом вычислительных процедур.
Идеи Евклида получили развитие в трудах персидского математика IX века Аль-Хорезми, в честь которого вычислительные последовательности названы алгоритмами. Ему же принадлежит понятие алгебра (аль-джабра).
Алгебра, как наука, посвящена важнейшей способности ума обозначать неизвестные вещи словами или символами, а связи между ними записывать в виде высказываний или формул. Отсюда появляются формальные методики, в рамках которых вырабатываются правила корректного переписывания формул, позволяющие решать уравнения и находить неизвестные величины. Формальное мышление является предметом изучения логики, а та, в свою очередь, тесно соприкасается с лингвистикой. Лингвистика изучает как смыслы слов (семантика), так и символы, при помощи которых они записываются (семиотика). Направление искусственного интеллекта, посвящённое формальному символьному мышлению, иногда называют семиотическим.
Искусственный интеллект начинался с автоматизации арифметических процедур. В 1623 году Вильгельм Шикард построил первую механическую цифровую вычислительную машину, за которой последовали машины Блеза Паскаля (1643) и Готфрида Вильгельма Лейбница (1671).
Лейбниц также впервые высказал идею о возможности машинного моделирования более сложных мыслительных функций и изобрел методику построения таких машин «Calculus ratiocinator». Ему принадлежит сам термин «модель». Он также разработал универсальный язык логики на базе математических символов «Characteristica universalis», послуживший прототипом современных языков программирования. Благодаря этим изобретениям Лейбниц считается основателем информатики (computer science).
Вслед за Лейбницем, по мере развития науки и техники, ученые ставили всё более амбициозные задачи, стремясь автоматизировать не только процесс вычислений, но и процесс логического мышления. В 1832 году Семён Николаевич Корсаков опубликовал описание пяти изобретённых им механических устройств, так называемых «интеллектуальных машин», для частичной механизации умственной деятельности в задачах поиска, сравнения и классификации. В конструкции своих машин Корсаков впервые в истории информатики применил перфорированные карты. До него перфорированные карты уже применялись в конструкции жаккардовых ткацких станков, изобретенных в 1804 году Жозефом Мари Жаккаром.
В период с 1823 по 1833 годы Чарльз Бэббидж занимался построением машины, способной вычислять значения некоторых аналитических функций с точностью до 20 знака после запятой. В итоге он предложил в 1833 году идею универсальной аналитической машины, которая считается первым в мире программируемым компьютером. Первую в мире программу для этой машины составила Ада Лавлейс, дочь лорда Байрона.
В 1897 году Готлиб Фреге в своей работе «Исчисление понятий» (Begriffsschrift), следуя идеям Лейбница, предложил формализованный язык логики высказываний и логики предикатов, лежащий в основе всей современной математики и систем автоматического доказательства теорем в частности.
В 1913 году Бертран Рассел и Альфред Норт Уайтхед опубликовали работу «Principia Mathematica», считающуюся второй по влиятельности после «Органона» Аристотеля. В работе показывается, что вся математика может быть сведена к логике с помощью набора аксиом. Для этого была введена теория типов, идеи которой легли в основу типизированных языков программирования.
В 1928 году Давид Гильберт сформулировал «проблему разрешения» (Entscheidungsproblem), которая сводилась к созданию универсального алгоритма выяснения истинности утверждения в рамках заданного формального языка. В 1931-36 годах Курт Гёдель, Алонзо Чёрч и Алан Тьюринг независимо друг от друга доказали невозможность существования такого алгоритма. Вместе с тем Чёрч и Тьюринг предложили два различных подхода к автоматизации процессов арифметического мышления, так называемые «лямбда исчисление» и «машина Тьюринга», из которых затем произошли функциональное и процедурное программирование.
В 1944 году Джон фон Нейман разработал архитектуру программируемых вычислительных машин, используемую большинством современных компьютеров.
В 1945 году Саундерс Маклейн и Самуэль Эйленберг, работая в сфере алгебраической топологии и теории групп, ввели понятие естественного преобразования, которое дало начало теории категорий, распространившейся в дальнейшем на всю математику, логику, теоретическую физику и информатику. Теория категорий формулирует критерии построения языков описания предметной области (Domain Specific Language, DSL), следуя которым можно пересаживать факты, доказанные в одной области, в другую область, с сохранением их истинности. При помощи теории категорий появилась возможность отделить избыточную сложность от сути и переформулировать проблему в терминах, в которых решение становится очевидным. Таким образом были доказаны теоремы, которые выглядели слишком трудными в своей изначальной формулировке.
Приём изолирования избыточной сложности с сохранением простоты основной логики широко используется в программировании. Там особой популярностью пользуется понятие «монада», суть которого заключается в изолировании побочных эффектов внутри типа переменных, что позволяет сохранить главный код простым и сосредоточенным на решении основной задачи.
Теорию категорий можно назвать венцом развития алгебраического подхода. Сегодня эта теория обобщает методологию практически во всех формальных областях науки. Также новейшие исследования показывают эффективность применения теории категорий к машинному обучению, благодаря чему удаётся достичь объяснимости вычислительных процессов в нейронных сетях.
В 1950 году Алан Тьюринг в статье «Вычислительные машины и разум» предложил тест на определение способности машины мыслить, который считается классическим тестом для искусственного интеллекта.
В 1956 году Джон Маккарти впервые применил термин «искусственный интеллект» (artificial intelligence, точный перевод — искусственная способность рассуждать разумно), включающий в себя как биологически правдоподобные антропоморфные механизмы, так и любые другие механизмы разумного рассуждения, которые не наблюдаются у людей.
В 1951 году Марвин Минский сконструировал первую обучающуюся машину со случайно связанной нейросетью. В 1958 году Фрэнк Розенблатт предложил кибернетическую модель восприятия информации мозгом, которую он назвал перцептроном. Он же в 1962 году предложил метод обратного распространения ошибки для тренировки многослойных нейронных сетей, однако без конкретной реализации.
В 1969 году вышла книга Марвина Минского и Сеймура Паперта, которая показала принципиальные ограничения перцептронов. Это привело к смещению интереса исследователей искусственного интеллекта в противоположную от нейросетей область символьных вычислений. С тех пор когнитивистика разделилась на два конкурирующих направления — символицизм и коннекционизм.
В середине 50-х Ноам Хомский предложил формализм контекстно-свободных грамматик для анализа блочной структуры естественных языков. Изначально идея порождающей грамматики принадлежит древнеиндийскому философу и лингвисту V века до н.э. Панини. Идея блочной структуры получила широкое распространение в языках программирования. Первый блочный язык программирования был изобретён в рамках проекта Algol (1957–1960). Также в рамках этого проекта была предложена каноническая форма описания грамматики языков программирования, форма Бэкуса — Наура (BNF).
В 1959 году Герберт Саймон, Клиффорд Шоу и Аллен Ньюэлл разработали универсальный решатель задач, сформулированных на языке хорновских дизъюнктов (A и B и C => D). Решатель был способен доказывать теоремы евклидовой геометрии и логики предикатов, решать шахматные задачи. Попытки решения более сложных задач приводили к комбинаторному взрыву. Универсальный решатель задач лёг в основу одной из современных когнитивных архитектур искусственного интеллекта SOAR, а также некоторых экспертных систем.
Также широкую известность получила гипотеза Ньюэлла-Саймона о том, что никакая система искусственного интеллекта не сможет выполнять осмысленные действия, не прибегая к символьным вычислениям. Гипотеза была высказана в 1976 году. Это время можно считать временем расцвета символицизма, который в своём апогее достигает предположения, что всякий процесс мышления может быть сведён к арифметическому вычислению. Подобные идеи принадлежат вычислительной теории разума, получившей развитие в работах Хилари Пантема и Джерри Фодора.
В 60-х, 70-х годах велись активные исследования в области символьных вычислений. Например, в 1968 году Джей Эрли предложил свой алгоритм синтаксического анализа предложения по контекстно-свободной грамматике Хомского, основанный на методе динамического программирования Беллмана. Было замечено, что задача грамматического анализа эквивалентна задаче поиска формального доказательства в рамках набора аксиом. В 1971 году Роберт Ковальски представил систему автоматического доказательства теорем на базе хорновских дизъюнктов, которая вдохновила Алана Колмерауэра и Филиппа Рассела на изобретение языка логического программирования Prolog, считающегося «языком программирования искусственного интеллекта». В 1968 году была опубликована система символьных вычислений «MATHLAB 68», которая была способна решать дифференциальные уравнения в аналитическом виде, брать неопределённые интегралы, раскладывать полиномы на множители и пр.
В 1974 году Марвин Минский предложил способ представления знаний в искусственном интеллекте в виде «фреймов» — минимально возможных описаний объектов, явлений, событий, ситуаций и процессов. Идея фреймов легла в основу экспертных систем, баз данных, семантических сетей и объектно-ориентированного программирования.
Параллельно с символьным направлением велись работы и над искусственными нейронными сетями. В этом же году Пол Вербос опубликовал первую рабочую модель метода обратного распространения ошибки для тренировки многослойного перцептрона.
В 1979 году Кунихика Фукусима представил каскадную нейронную сеть, неокогнитрон, обучаемую без учителя и способную распознавать образы.
В 1986 году Джеффри Хинтон, Дэвид Руммельхарт и Рональд Вильямс существенно развили метод обратного распространения ошибки, обеспечив прорыв в области искусственных нейронных сетей. В то же время в Советском Союзе метод обратного распространения ошибки был независимо усовершенствован Сергеем Игоревичем Барцевым и Виктором Александровичем Охониным. Основные исследования в области ИИ в СССР в то время осуществлялись под руководством академика Гермогена Сергеевича Поспелова.
В 1989 году Ян Лекун использовал идеи неокогнитрона Фукусимы для создания свёрточных нейронных сетей, тренируемых с учителем по методу обратного распространения ошибки, что существенно улучшило эффективность нейронных сетей в задачах распознавания образов.
Работы Джеффри Хинтона и Яна Лекуна послужили началом лавинообразного роста интереса к искусственным нейронным сетям, которые в значительной степени вытеснили собой другие подходы искусственного интеллекта, включая направления, основанные на формальной логике, такие как экспертные системы, интерес к которым значительно угас.
Дальнейшее развитие искусственных нейронных сетей вобрало в себя байесовскую статистику с появлением вариационного нейробайесовского подхода в 1995-1998 годах в работах Дэвида Маккея и Кристофера Бишопа.
Искусственные нейронные сети также заняли лидирующее положение среди технологий обработки естественного языка и машинного перевода благодаря изобретению алгоритма word2vec, формирующего пространство семантических векторов (Томаш Миколов, Google, 2013). Дальнейшие усилия в этом направлении привели к изобретению механизма внимания (Дзмитри Бахданау, Йошуа Бенжио, Илья Суцкевер, 2014), (Мин-Тан Луонг, 2015), легшего в основу технологии трансформеров (Ашиш Васвани, Google, 2017), на базе которых в 2018 году появились модели BERT (Google) и GPT (OpenAI).
Новейшие большие языковые модели (LLM), основанные на трансформерах, например ChatGPT, демонстрируют способности логического рассуждения, свойственные системам искусственного интеллекта, основанным на символьных вычислениях, что ставит под сомнение гипотезу Ньюэла-Саймона. Впрочем, учитывая то, что обучающий корпус языковых моделей состоит из символьных цепочек, гипотеза Ньюэла-Саймона остаётся в силе.
Несмотря на то, что большие языковые модели являются на настоящий момент лидирующим направлением, привлекающим внимание большого числа учёных, основатели искусственного интеллекта и компьютерной лингвистики, такие как Ноам Хомский и Джеффри Хинтон, не разделяют общего оптимизма и считают, что наука искусственных нейронных сетей зашла в тупик, и «нам нужно начинать всё сначала». Действительно, в идейном плане большие языковые модели составляют лишь малую долю от общего числа уникальных направлений в области когнитивистики, открытых за последние 70 лет.
Задача искусственного интеллекта включает в себя не только способность построения фраз, кажущихся осмысленными в результате слепого подражания огромному тренировочному корпусу, взятому из Интернета, но и способность наполнять эти фразы реальным смыслом, привязанным к опыту взаимодействия с внешним миром через органы чувств и моторики. Биологически доказано, что все эти задачи мозг решает при помощи одного универсального механизма — кортикальной колонки, совмещающего в себе функцию обучаемой памяти с функцией вывода решения поставленной задачи. Таким образом, дальнейшие направления исследования некоторых передовых коллективов, таких как OpenAI, связаны с созданием универсальных мультимодальных трансформеров, имитирующих работу кортикальной колонки, например порождающие модели CLIP, Gemini и Stable Diffusion.
Подобные генеративные модели часто прибегают к обучению скрытым внутренним векторным представлениям методом контрастного обучения. Контрастное обучение является логическим развитием состязательного обучения (GAN), изобретенного Яном Гудфеллоу в 2014 году.
Другие ученые отталкиваются от рассмотрения мозга как агента, существующего в контексте внешней среды и стремящегося к уменьшению неопределенности в предсказании её развития при помощи пассивного наблюдения и активного воздействия (т.н. «активного вывода»). Такая модель может быть описана в терминах байесовской статистики при помощи принципа минимизации вариативной свободной энергии, предложенного в 2010 году Карлом Фристоном. Метод «активного вывода» Фристона основан на идее «бессознательного вывода», высказанной Германом фон Гельмгольцем в 1867 году.
Известны также многочисленные когнитивные архитектуры, моделирующие мозг как совокупность структур, демонстрирующих совместное интеллектуальное поведение в сложных и непредсказуемых внешних условиях. Идея разработки когнитивных архитектур была высказана Алленом Ньюэллом в 1990 году. С тех пор возникли десятки различных архитектур, которым посвящены многочисленные статьи и конференции.
Значительную долю в области машинного обучения занимают модели, тренируемые по методу обучения с подкреплением. В 2017 году нейронная сеть AlphaZero, обучаемая игре в шахматы за счёт игры с самой собой, сумела не только превзойти человеческий уровень, но и обыграть все известные на тот момент шахматные программы. Обучение с подкреплением является разновидностью динамического программирования, основанного на принципе оптимальности, предложенном Ричардом Беллманом в 1957 году. Эта технология также активно используется в моделях ChatGPT и Gemini.
Параллельно с развитием символьного искусственного интеллекта и искусственных нейронных сетей шли исследования в области биологически правдоподобных моделей нервной ткани (нейроморфных). Здесь следует отметить имена Дональда Хэбба, опубликовавшего в 1949 году принцип организации нервной ткани в направлении усиления причинно-следственных связей между нейронами; Алана Ходжкина и Эндрю Хаксли, предложивших в 1952 году первую модель импульсной нейронной сети; Джона Хопфилда, изобретшего в 1982 году ассоциативную нейронную модель гиппокампа; Теуво Кохонена, предложившего в 1984 году идею самоорганизующихся карт и других механизмов нейронной конкуренции; Джеффри Хинтона и Терри Сейновски, опубликовавших в 1985 году идею «машины Больцмана», обучаемую без учителя на энергетических принципах; Джеффа Хокинса, автора модели иерархической темпоральной памяти (память-предсказание) и основателя фирмы Numenta, лидирующей в продвижении нейроморфных вычислений. Список имён можно продолжать ещё очень долго.
Приведенный исторический очерк даже кратко не касается когнитивной психологии, теории информации, теории управления и многих других направлений исследования в области когнитивистики. Все эти направления должны быть представлены в рубрикаторе сайта. Помимо этого было бы неразумно ограничивать охват рубрикатора только новейшими технологиями, игнорируя весь многовековой опыт человечества в осмыслении природы познания. Ведь основная проблематика того, что сейчас называется модным словом «искусственный интеллект», была сформулирована уже в V веке до нашей эры древнегреческими философами. На их языке это называлось гносеологией — наукой о знании.
Что же такое знание? По одному из определений, знание — это образ реальности, хранимый в памяти в виде понятий и представлений. Человек, лишённый памяти, лишается и знания. Память при этом понимается в широком смысле: внешняя, внутренняя, зрительная, моторная и т.п. Однако память сама по себе недостаточна для применения знания. Для этого нужна еще способность обобщения. Знать значит помнить нечто и уметь применить это в нестандартной ситуации. Современные философы искусственного интеллекта, такие как Франсуа Шоле, считают способность к обобщению главной характеристикой разума.
Обобщение, в свою очередь, тесно связано с системой ограничений, например с выбором семейства функций. Для того чтобы распространить знание на незнакомую ситуацию, нужно заранее определиться с тем, что возможно и что невозможно. В противном случае, возможным становится всё, и исчезают критерии переноса знания с известных на неизвестные точки. Как шутит Ноам Хомский, теория «всё происходит» (anything goes) объясняет всё, но не предсказывает ничего. Это высказывание обладает нулевой ценностью в плане знания, поскольку не содержит в себе никаких ограничений.
Система ограничений, записанных формально в виде уравнений или заложенных в структуре нейронной сети или в выборе семейства вероятностных распределений или алгоритма оптимизации, называется моделью в лейбницевском смысле. Всякая модель обладает областью применимости. В 1997 году Дэвид Уолперт и Уильям Макреди доказали серию NFL-теорем, утверждающих, что не существует универсальной модели, способной к обобщению в любой проблемной области. Если какая-то модель хороша в одной области, то она обязательно будет плоха в другой. Выбор правильной модели, подходящей для данной проблемной области, требует интеллектуальных усилий. Мечта же о «волшебной» супермодели, подходящей для всех областей одновременно, сравнивается с метафорой «бесплатного обеда», которого не бывает (No Free Lunch).
Есть жёсткие логические модели, неспособные к обучению. Другие модели обладают настроечными параметрами, значения которых могут быть подобраны в соответствии с экспериментальными данными. Некоторые модели обладают небольшим количеством параметров и могут быть настроены по небольшому числу обучающих точек. Например, для настройки модели прямой линии достаточно всего двух точек. Другие модели, такие как GPT-4, имеют до 1.8 триллионов параметров, и для их тренировки необходим корпус из 13 триллионов обучающих образцов. Наконец, если и вовсе убрать какие-либо ограничения, то мы получим базу данных, которая теоретически способна хранить в себе неограниченное количество опорных фактов, но при этом она вообще не способна к обобщению.
Проблема разделения знания на теоретическое/объективное (модели, правила, законы, ограничения, аксиомы) и экспериментальное/субъективное (обучающие данные, опытные факты) проходит красной нитью через всю историю философии познания от древнегреческих философов до наших дней. Платон в IV веке до нашей эры говорил о ноуменах (идеях) и феноменах (опытах). Аристотель в III веке до нашей эры указывал на то, что никакое логическое построение невозможно без предварительной договоренности о системе неоспоримых истин. Подобное учение прослеживается в трудах неоплатоников (Северин Боэций), арабских мыслителей (Ибн Рушд, Ибн Сина, он же Авиценна), в трудах средневековых схоластов (Альберт Великий, Фома Аквинский). Кант говорил о знании a-priori (до эксперимента) и a-posteriori (после эксперимента); Лейбниц вводил понятия «истины факта» (опыт) и «истины разума» (модель); Бертран Рассел показал, что вся математика может быть основана на системе аксиом; Курт Гёдель показал, что никакая формальная система не может быть полной и непротиворечивой одновременно, т.е. всякая непротиворечивая формальная система должна опираться на внешние высказывания.
Свойство замкнутости знания на более глубокое знание, приводящее к бесконечному поиску истины, было впервые обнаружено в V веке до нашей эры древними греками. Они проводили время в бесконечных спорах, в которых любой умелый оратор мог доказать всё что угодно и тут же это опровергнуть. Этот опыт привёл одних философов к глубокому скепсису в отношении возможности познания истины вообще (Пиррон, софисты), других — к необходимости признать, что хоть истинное знание и существует независимо от мнений, оно недоступно человеку по сути. Человек может лишь приближаться к истине в результате правильных рассуждений, но никогда не постигнет её в полной мере.
Эта идея выражена Сократом в его знаменитом афоризме «Я знаю, что я ничего не знаю, другие не знают даже этого», взятом в качестве эпиграфа к этому сайту. Сократ вместе с тем верил в существование истины и осуществил первую попытку отделить корректные рассуждения от некорректных, что положило начало научному методу.
Ученик Сократа Платон продолжил направление мысли своего учителя в своей онтологии, разделяющей бытие на мир идей и мир вещей. Истинное познание, по мнению Платона, возможно только касательно мира идей, постигаемых чистым разумом (ноуменов), а о мире вещей, доступном в чувственном опыте (феноменов), могут существовать лишь частные мнения.
Идеи Сократа и Платона получили дальнейшее развитие в философии Аристотеля, заложившего фундамент научной логики в своих великих сочинениях, известных под общим названием «Органон». Вклад Аристотеля в развитие науки невозможно переоценить. Кроме формулировки законов логики он ввёл понятие энергии и принцип синергии, являющиеся фундаментальными для всей современной физики, и не только физики. Ему принадлежит учение о категориях, составляющих основу понятийного аппарата современного программирования высокого уровня. Например, ключевые слова «instance», «class», «property», «state», «action» и «reference» соответствуют аристотелевым категориям первой и второй сущности, качества, состояния, действия и отношения. Аристотель также развил учение о причинности. Достаточно сказать, что имена главных направлений науки возникли как названия папок с сочинениями Аристотеля, упорядоченными Андроником Родосским. Вся современная вычислительная техника имеет в своей основе логические элементы, идея которых была впервые сформулирована Аристотелем.
В средние века проблема знания глубоко прорабатывалась католическими схоластами, но настоящий прорыв в области гносеологии произошёл в эпоху зарождения естествознания, начавшуюся с работ Фрэнсиса Бэкона, одна из которых была издана в 1620 году под названием «Новый Oрганон». В этой работе Бэкон ставит во главу угла эксперимент и излагает методику индуктивного мышления, в результате которого общие гипотезы рождаются из частных опытов и получают в них подтверждение. Индуктивное мышление противопоставляется дедуктивному мышлению, в котором частные суждения рождаются из общих законов и предпосылок путем логического вывода.
Идеи Бэкона получили развитие в труде Иммануила Канта «Критика чистого разума», опубликованном в 1781 году. Кант ввёл понятия априорного и апостериорного знания, т.е. знания до и после эксперимента. Оказывается, что для апостериорного знания недостаточно одного только эксперимента — необходимо ещё и априорное знание. Знание циклично, оно проистекает само из себя и уточняется за счёт опыта. Математически это выражается в теореме Томаса Байеса, впервые опубликованной посмертно в 1763 году и переоткрытой независимо Пьером-Симоном Лапласом в 1774 году. Байесовский вывод является математически точным инструментом индуктивного мышления и применяется как в точных науках, так и в медицине и юриспруденции.
Теорема Байеса лежит в основе байесовской статистики, входящей в сферу искусственного интеллекта в виде т.н. «байесовской гипотезы мозга». Байесовская статистика является переосмыслением классической фреквентистской (частотной) статистики, основанной на усреднении большого числа экспериментальных измерений. В отличие от байесовского подхода, в котором все рассматриваемые величины являются случайными и содержат в себе элемент незнания, а всякий эксперимент считается абсолютно точным и значимым, фреквентистский подход предполагает наличие точного знания о законах наблюдаемого явления. Расхождение же опыта с моделью списывается на случайный шум, который удаляется путём усреднения большого числа повторных измерений. Классический статистический подход восходит к высказыванию Демокрита «Все сущее во вселенной есть плод случайности и необходимости».
Помимо статистических моделей существуют логические модели, работающие там, где присутствует точная формальная постановка задачи. Есть задачи, которые хорошо решаются в рамках логики, например задачи сортировки чисел, однако до сих пор не изобретена ни одна статистическая модель, способная обучиться решению этой задачи на примерах. С другой стороны, существуют задачи, которые хорошо решаются статистически, но они не по силам ни одной формальной модели, например распознавание образов. По мнению Франсуа Шоле, общий искусственный интеллект должен объединять в себе как способность мыслить логически в рамках формального знания (дедуктивно), так и способность мыслить статистически в рамках частичного незнания (индуктивно). При этом главной способностью разума Шоле считает способность к обобщению, которая рождается из априорного знания проблемной области и адекватного выбора модели.
Вне зависимости от того, с какой стороны мы рассматриваем знание — с формальной (дедуктивной) или со статистической (индуктивной) — современная наука ставит нас перед проблемой его несамодостаточности, известной со времён Сократа. Современное осмысление этой проблемы в дедуктивном варианте заключается в теоремах Гёделя о неполноте, опубликованных в 1931 году, а в индуктивном варианте — в NFL-теоремах, опубликованных в 1997 году. Обе публикации вызвали огромный резонанс в научном сообществе. Оказывается, человеческий мыслительный аппарат во всех своих проявлениях не может опираться только на себя. Попытка замкнуть его на себя и сделать независимым источником истины порождает утверждения, противоречащие самим себе. Например, парадокс Рассела: «Принадлежит ли себе множество всех множеств, не принадлежащих себе?». Аналогичным образом, никакая статистическая модель не может быть успешной без знания проблемной области, заложенного в неё извне.
Проблема несамодостаточности в определении знания настолько фундаментальна, что вся наука, описав петлю в двадцать пять веков, вернулась к тому, с чего начинала, так и не найдя ответа на вопрос «Что есть истина?». Доходит до того, что некоторые современные философы постмодернизма, подобно древним софистам, предлагают исключить сам вопрос об истинности из рассмотрения как псевдопроблему (Блинов А.К.). Таким образом, афоризм Сократа «я знаю, что я ничего не знаю» остаётся актуальным и по сей день.
Вопрос истинности является не единственной проблемой, с которой сталкивается современная философия познания. Один из наиболее влиятельных ученых в области искусственного интеллекта, основатель компьютерной лингвистики Ноам Хомский сводит неразрешённые проблемы философии искусственного интеллекта к трём основным, которым он даёт имена Платона, Дарвина и Декарта.
Проблема Платона происходит от его учения о разделении знания на идеальное и опытное. В психологии похожим образом принято говорить о врождённом и приобретённом знании. Существует спор между сторонниками т.н. нативизма и эмпирицизма. Нативисты считают, что никакая когнитивная система не может существовать без предварительно заложенных в неё врождённых знаний. Врождённые знания позволяют с высокой эффективностью извлекать дополнительные знания из опыта. Ноам Хомский формулирует проблему Платона следующим образом: «Как мы можем знать так много при таком ограниченном опыте?» Сторонники эмпирицизма, напротив, полагают, что когнитивная система может начинать с чистого листа («tabula rasa») и извлекать все знания только из опыта. В качестве примера приводится программа AlphaZero, обучаемая игре в шахматы без предварительного опыта только за счёт игры с самой собой, а также большие языковые модели, извлекающие все свои знания из обучающей последовательности при минимальных начальных предположениях. К известным сторонникам нативизма можно отнести самого Платона, Канта, Ноама Хомского, Джерри Фодора, Стивена Пинкера, Элизабет Спелке и Гэри Маркуса; в пользу эмпирицизма высказываются Джон Локк, Дэвид Юм, Жан Пиаже, Джеффри Хинтон и Ян Лекун.
С точки зрения искусственного интеллекта, позиция нативизма может быть изложена как необходимость адекватного выбора модели, подходящей для данной проблемной области, до начала обучения. Математически необходимость правильного выбора модели проиллюстрирована NFL-теоремами. Сторонники эмпирицизма, не отрицая необходимости выбора модели, делают акцент на том, что, как известно из многочисленных экспериментов, наиболее удачной оказывается та модель, которая содержит в себе минимальное число встроенных эвристических предположений. Чем больше знаний модель извлекает непосредственно из опыта, тем точнее она становится в рамках поставленной задачи.
Вторая проблема, которой Хомский даёт имя Дарвина, относится к знаменитому спору между сторонниками теории эволюции и сторонниками теории разумного дизайна. Исследования в области искусственного интеллекта дают новую пищу для этой полемики. Для победы в споре сторонникам теории эволюции необходимо предъявить генетический алгоритм, при помощи которого могли бы быть созданы все существующие генетические последовательности ДНК. Отказ от предъявления такого алгоритма со ссылкой на невозможность постановки эксперимента длиною в миллионы лет лишил бы гипотезу эволюции фальсифицируемости, что автоматически перевело бы её в разряд псевдонаучных спекуляций. Поэтому труды по поиску эволюционных алгоритмов длятся уже более 60-ти лет, начиная с работ Лоуренса Дж. Фогеля.
В настоящий момент известен целый ряд успешных эволюционных экспериментов, в числе которых, например, эксперименты с устойчивостью к антибиотикам in vitro и многочисленные эксперименты с генетическими алгоритмами in silico. Эти эксперименты показали эффективность генетических алгоритмов в задачах, допускающих постепенное улучшение генотипа путём мутаций и кроссовера. Однако остаётся под вопросом способность таких алгоритмов решать задачи, в которых конкурентное преимущество появляется внезапно (эмерджентно) за счёт т.н. синергетического эффекта. Существующие успешные примеры эволюции не демонстрируют создание новых механизмов. Например, устойчивость к антибиотикам появляется путём постепенного разрушения старого механизма действия антибиотика в результате мутаций. При этом никакой новый механизм устойчивости не возникает. Аналогичным образом, искусственные организмы, создаваемые в экспериментах с генетическим программированием, не содержат новых логически объяснимых структур в своём фенотипе. Фенотип таких организмов представляет собой хаотическое нагромождение базовых элементов и не похож на видимо логичное и объяснимое устройство живых существ.
Всё это ставит под вопрос способность генетического программирования рождать новые конструктивные элементы, обладающие эмерджентностью, которая означает невозможность их создания путём постепенного улучшения более простых структур. Для преодоления синергетического разрыва доступен только слепой перебор вариантов, который возможен лишь в очень простых задачах вроде игры в крестики-нолики. В оригинале же Хомский формулирует проблему Дарвина применительно к языку: «Как язык мог эволюционировать?» (How Could Language Have Evolved?) Символьное кодирование информации рождает необозримое комбинаторное пространство. Возьмём к примеру язык ДНК. Число комбинаций аминокислот в одном только белке несопоставимым образом превосходит число атомов во вселенной, а особенности фенотипа, как правило, кодируются целыми комплексами комплементарных белков. Случайное возникновение такого комплекса совершенно невероятно, а его постепенное улучшение невозможно, поскольку некомплементарные комбинации не дают никакой выгоды. Выгода появляется внезапно, когда весь «пазл» сложился. На данный момент нет никаких примеров, которые могли бы проиллюстрировать возможность преодоления этого разрыва путём мутаций и кроссовера. Из этого следует вывод, что в текущем состоянии развития генетическое программирование неспособно объяснить рождение эмерджентных конструктивных особенностей, которыми обладают все живые существа, вплоть до бактерий. Проблема остаётся открытой, и технологии искусственного интеллекта лишь переводят спор вокруг теории эволюции на новый уровень, но никак не могут положить ему конец.
Третья проблема, которая получила имя Декарта, имеет отношение к личностным проявлениям человека, таким как сознание, мотивация поступков и совесть. Хомский формулирует эту проблему следующим образом: «Как мы можем совершать поступки, адекватные по отношению к различным ситуациям, но не обусловленные ими?» Это вопрос свободы выбора: является ли человек самообусловленной причиной своих поступков, или его «бытие определяет сознание» (causa sui)? При этом Хомский иронично замечает, что почти 100% людей в его окружении считают себя детерминированными «термостатами», однако в 100% случаев они ведут себя не как «термостаты» и заботятся о вопросах, по поводу которых «термостатам» не следовало бы переживать. Известно также наблюдение Стивена Хокинга: «Я заметил, что даже люди, утверждающие, что все предопределено, и что мы не можем ничего изменить, всегда смотрят по сторонам, переходя дорогу.»
Вопрос о сочетании телесной природы человека, подчинённой физическим законам, с личностными проявлениями, подразумевающими свободу выбора, известен в философии как психофизиологическая проблема (mind–body problem). Существуют два доминирующих направления в осмыслении этой проблемы. Одно из них — это дуализм Декарта, разделяющий природу человека на физическую (тело) и нефизическую (разум). Этому осмыслению противопоставляется монизм Спинозы, который утверждает, что разум — это свойство тела, а свобода является лишь кажущейся.
Моделирование личностных особенностей человека принадлежит к сфере т.н. сильного искусственного интеллекта. Для убеждённых материалистов всё в человеке есть проявление материи, и не существует никаких препятствий к созданию искусственной материальной копии человеческой личности вплоть до полного цифрового клонирования, включая свободу воли. Одним из лидеров в этом направлении является технический директор в области машинного обучения Google Рей (Рэймонд) Курцвейл. Сторонники радикального материализма пытаются совместить свободу с материальным детерминизмом (т.н. «компатибилизм»). Известным представителем этого лагеря является Бенедикт (Барух) Спиноза с его знаменитой фразой «свобода есть осознанная необходимость». Из современных ученых можно отметить Дэниела Деннетта и его книгу «Пространство для локтей» (Elbow room).
Ярким представителем противоположного лагеря является Иммануил Кант. Он доказывает существование нематериальной составляющей человеческой природы, исходя из нравственных требований, предъявляемых исключительно к человеку. По мнению Канта, возможность нравственного выбора свидетельствует о наличии в человеке истинной свободы воли, которая не свойственна ничему материальному, поскольку материя развивается по строгим законам, не оставляющим места для какой-либо свободы. При отсутствии свободы воли теряют смысл целые области знаний, например, этика и юриспруденция. Эти категории неприменимы к физическим явлениям. Например, приказ «высечь море розгами» скорее воспринимается в юмористическом ключе, хотя подобные прецеденты имели место. Признавая ответственность человека за свои поступки, мы одновременно признаём наличие свободного выбора в момент их совершения. В противном случае мы снимаем юридическую и моральную ответственность с человека, если поступок был совершён в безвыходной ситуации.
В любом случае проблема Декарта остаётся открытым вопросом современной философии наравне с проблемами Платона и Дарвина. Все три проблемы ставят нас перед вопросом о границах возможностей машинного обучения. Проблема Платона может быть истолкована в контексте машинного обучения следующим образом: известно, что система искусственного интеллекта может обобщать точки полученного опыта в рамках выбранной модели, но может ли она распространять свои знания на проблемные области, для которых эта модель не подходит? Способны ли алгоритмы машинного обучения расширять границы самой модели, создавать новые модели, подходящие для новых проблемных областей?
Известна методика метаобучения (гиперэвристики), позволяющая совершенствовать сами модели. Она в значительной мере опирается на эволюционные и генетические алгоритмы. Здесь возникает второй вопрос, имеющий отношение к проблеме Дарвина. Известно, что генетические алгоритмы эффективны в задачах, допускающих постепенное улучшение генетического кода (например, задача коммивояжёра), либо в простых задачах с обозримым числом комбинаций. Однако способны ли генетические алгоритмы или другие алгоритмы метаобучения и гиперэвристики решать задачи, в которых минимальный шаг между последовательными улучшениями сопровождается комбинаторным взрывом (см. сложность Колмогорова-Хайтина)? К примеру, написание компьютерных программ — это одна из таких задач, которую невозможно решить, «пуская кошку погулять по клавиатуре». Генетическое программирование может объяснить возникновение свойств, не требующих новых конструктивных усложнений в фенотипе, но может ли оно решать задачи, в которых возникновение конкурентного преимущества возможно лишь после серии комплексных изменений, каждое из которых само по себе не несёт никакой выгоды?
И, наконец, третий вопрос, относящийся к проблеме Декарта: известно, что модели, использующие обучение с подкреплением, могут разбивать задачу на подзадачи и ставить перед собой промежуточные цели. Однако способны ли такие модели к глобальному целеполаганию, могут ли они ставить перед собой первичные задачи и проявлять свойства свободной воли?
Для каждой из трёх проблем можно привести жизненные примеры. Известно, например, что генеративные модели могут стилизовать любую фотографию под картину художника-импрессиониста, но способен ли искусственный интеллект выработать новый стиль в живописи? Известно, что генетические алгоритмы могут подобрать оптимальную форму рёбер жёсткости в конструкции авиалайнера, но способны ли они с нуля по собственному вдохновению изобрести двигатель авиалайнера? Известно, что модели, обучаемые с подкреплением, принимают собственные оптимальные решения в сложных ситуациях, но могут ли они нести моральную ответственность за эти решения как существа, обладающие свободной волей?
По всей видимости, теория искусственного интеллекта никогда не даст ответы на эти вопросы. Ответы на них, скорее, принадлежат сфере философии и религии. По сути все три проблемы могут быть сведены к одному вопросу — могут ли перечисленные необъяснимые свойства разума исходить из материи, или они являются проявлениями какого-то иного нематериального начала, которое можно условно назвать душой?
Вопрос этот, хотя и находится вне зоны досягаемости науки, самой науке никак не противоречит. Мы знаем, что существование души признавали такие великие ученые, как Платон, Ньютон, Лейбниц, Паскаль, Кант, Декарт, Байес. Список можно продолжать ещё очень долго. С другой стороны, сторонниками чисто материального объяснения возможностей разума являются Лаплас, Спиноза, Фрейд, Дарвин, Жан-Поль Сартр, Бертран Рассел — и этот список тоже можно продолжать долго.
Вопрос о существовании души, при всей своей кажущейся ненаучности, является весьма важным для философии искусственного интеллекта. Во-первых, он влияет на расстановку приоритетов при выборе направления исследований. Например, разработчики, верящие в возможность создания искусственной личности, тратят немало усилий на попытки создания роботов, воспроизводящих человеческие эмоции. В то же время учёные, признающие нематериальный характер личностных проявлений, смиряются с невозможностью и ненужностью механического подражания эмоциям и сосредотачивают свои усилия на более практических задачах.
Однако острее всего психофизиологическая проблема проявляется в этическом плане. Например, проповедники идеи сильного искусственного интеллекта рассматривают законодательные инициативы, приравнивающие человека и робота с точки зрения юриспруденции. Они хотят закрепить в законе права искусственной личности. С противоположной стороны мы слышим призывы одуматься и, наоборот, рассмотреть законодательные инициативы по ограничению возможностей внедрения искусственного интеллекта в такие чувствительные сферы, как здравоохранение и образование. Например, в образовании существует риск того, что искусственный интеллект, натренированный на подражание методичкам, будет не в состоянии мотивировать одарённых детей, обладающих от природы нестандартным мышлением.
Таким образом, важнейшей практической задачей, стоящей перед философией искусственного интеллекта на сегодняшний день, является предвидение опасностей, связанных с внедрением искусственного интеллекта во все сферы человеческой жизни. При этом и здесь мы видим разделение на два лагеря. Те, кто верит в субъектность искусственного интеллекта, видят опасность в «восстании машин», широко обыгранном в различных фантастических произведениях, другие мыслят более прозаично и видят опасность в использовании искусственного интеллекта для манипуляции общественным сознанием и для массового одурачивания населения (deepfake). Результатом внедрения подобных технологий может стать деградация интеллектуального и духовного уровня всего человечества.
Как видно из приведённых соображений, вопросы философии искусственного интеллекта являются непраздными в контексте современности, и данный сайт призван дать им достойное освещение.
Для связи:
© nescire.me, 2024