Как возник термин «искусственный интеллект»? При чём тут человеческое мышление?
(Отрывок из книги «Четвёртая мировая война. Будущее уже рядом»)
Мне неоднократно приходилось слышать такого рода возражения: мол, какой у машины может быть интеллект? Это же просто набор алгоритмов, созданных человеком!
Забавно. Да, есть и «бузина», и «в Киеве дядька» тоже может быть, но слово – это только слово, и в зависимости от контекста оно может обозначать совершенно разные вещи.
Недаром мой любимый философ Людвиг Витгенштейн говорил, что не существует никаких «философских проблем», а есть лишь неразрешённые «языковые игры».
Проще говоря, если вы разберётесь, в каких словах вы запутались, то и проблемы, скорее всего, исчезнут сами собой.
Автором магического теперь уже словосочетания «искусственный интеллект» по праву считается Джон Маккарти. Но не от хорошей жизни искусственный интеллект стал «искусственным интеллектом». Придумать название для чего-то, чего раньше никогда не было, но чтобы любой человек, по системе ассоциаций, быстро понимал, о чём идёт речь, – это непросто очень.
Маккарти понимал, что есть феномен, который нуждается в номинации – в назывании. Об этом феномене рассуждали в 40–50-х прошлого века все великие умы, увлечённые идеей программируемых компьютеров: создатели самой идеи компьютеров – Алан Тьюринг и Джон фон Нейман, автор «теории информации» Клод Шеннон, пророк «кибернетики» Норберт Винер... Рассуждали, но единого имени для этого феномена не было.
При этом математики (а на первых порах это в основном были, понятно дело, математики) – люди увлекающиеся, мыслящие сложными абстрактными конструктами. С человеческим языком у них, как правило, дела обстоят не очень.
Так что на роль названия для феномена, который мы знаем теперь как «искусственный интеллект», претендовали достаточно странные слова и словосочетания.
Например, понятие «автоматов» («исследование автоматов»). Фон Нейман, с которым Маккарти обсуждал свою идею, занимался «клеточными автоматами», а Шеннон, взявший Маккарти к себе на работу в Bell Labs, выпустил книгу об «автоматах», которую Маккарти даже пришлось редактировать1.
То есть были все шансы у искусственного интеллекта называться, например, «умным автоматом», что, вероятно, многих его критиков примирило бы с действительностью мгновенно. Впрочем, в этом бы случае о другого рода «автоматах» шла бы речь – о математических, не об оборудовании с газировкой, но кого бы это смутило?
Было на повестке, конечно, и всякое «кибернетическое», а также «комплексная обработка информации», «машинный интеллект» и т. д.
Понятие «автоматы» Маккарти забраковал, потому что оно адресовало к математическим абстракциям (даже если это кому-то кажется забавным, это так).
Ничто а-ля-кибернетическое Маккарти не нравилось, потому что основоположника кибернетики – Норберта Винера – он считал напыщенным занудой и думать не хотел, о том, чтобы иметь с ним дело. В общем, как-то само собой нарисовалось слово «интеллект».
Но хотел ли Маккарти намекнуть нам на некое подобие мыслительной функции человека и этого своего «искусственного интеллекта»?
Как выясняется, нет. Впоследствии он не раз писал и говорил, что область, которую он обозначил «искусственным интеллектом», не имеет отношения к поведению человека – это просто такое слово-образ.
Но слово вылетело – не поймаешь: термин «искусственный интеллект» стал ассоциироваться с заменой человеческого разума машинным, о чём на самом деле речи-то и не шло.
Идея названия состояла не в прямой связи, не в замене и даже не в дополнении человеческого интеллекта искусственным (хотя уже тогда это и стало происходить), а в аналогии: у человека есть некая интеллектуальная функция принятия решений, и у машины есть нечто подобное – неживое, как и сама машина, искусственное.
В общем, математики, собравшиеся в 1956 году в рамках Дартмутского летнего исследовательского проекта, организованного Джоном Маккарти при финансовой поддержке Фонда Рокфеллера, подвоха не почувствовали, проголосовали – и название «искусственный интеллект» шагнуло в мир.
Показательно, кстати, что в программе этой конференции не было никаких докладов, которые были бы как-то связаны с поведением человека или его интеллектом.
Сейчас нет ни одного форума по искусственному интеллекту, где бы не говорили о биологическом интеллекте, механизмах мозга, обратной эмуляции коннектома2 и тому подобных вещах. Но для Маккарти подобные вещи выглядели бы глупо и совершенно неуместно на конференции по «искусственному интеллекту».
Когда он и его коллеги обсуждали «искусственный интеллект», они вовсе не воображали себе тех роботов из голливудских блокбастеров, к которым мы за это время уже так привыкли. Они говорили о чём-то своём… Но о чём именно?
Чтобы понять это, давайте посмотрим на ставшие уже классическими примеры искусственного интеллекта – да, слабого, но полностью отражающего существо феномена.
В 1998 году Ларри Пейдж, под руководством своего наставника Терри Винограда и в соавторстве с Сергеем Брином, опубликовал в IEEE Data Engineering Bulletin статью под названием «Что можно сделать с сетью в кармане?», где был сформулирована концепция будущей поисковой системы Google – по тем самым легендарным уже гиперссылкам.
Уже через несколько месяцев предприимчивые Пейдж с Брином ушли из Стэндфордской лаборатории и основали свою компанию, которая теперь обладает главным в мире интернет-поисковиком.
Но успех их проекта – это не какое-то единичное техническое решение двух удачливых стэнфордских магистрантов, а гигантский искусственный интеллект, изо дня в день осуществляющий сложнейшую работу по ранжированию и выдаче страниц, мониторингу сайтов и поведения конкретных пользователей, продаже рекламы и т. д. , и т. п.
Количество искусственных интеллектов, созданных Google за два десятка лет, вообще-то говоря, колоссально.
Вот взять, например, Google Translate – это самообучающийся и постоянно совершенствующийся искусственный интеллект. Изначально ему было предложено соотнести десятки тысяч документов, которые за долгие годы были созданы на различных языках бесчисленными переводчиками Организации Объединённых Наций.
Это оказалось блестящим решением – где ещё отыщешь такое огромное количество текстов, которые с предельной точностью одновременно переведены на огромное количество национальных языков?
Искусственный интеллект Google подошёл к делу технически безукоризненно: он обнаружил в продублированных на разные языки текстах множество взаимосвязей, корреляций и соотношений, и, можно сказать, буквально научился на этих языкахговорить.
Теперь, когда вы предлагаете Google Translate перевести какой-то текст, он не просто вываливает на вас набор слов из бесчувственного словаря, а строит фразу, причём не только используя известные ему алгоритмы, но и параллельно совершенствуя их, самообучаясь.
«Получив предложение на английском языке и запрос перевода на немецкий, сервис сканирует все известные ему документы на английском и немецком, ищет точное совпадение и затем возвращает соответствующий текст на немецком языке. […] Компьютеры оценивают статистические закономерности в больших массивах ранее накопленного цифрового контента, создание которого потребовало больших затрат, но воспроизведение их не стоит почти ничего».
Эрик Бриньолфсон, директор Центра цифрового бизнеса МITЭндрю Макафи, социолог и экономист из МIT
Является ли такого рода «интеллектуальная» работа собственно интеллектом? И да, и нет. Если достаточно грубо обобщить то, что делает какой-нибудь Google Translate, то ситуация выглядит следующим образом:
- на его условный сенсор приходит некая информация, которую он должен сначала как-то распознать, идентифицировать, а потом отреагировать на неё;
- чтобы придумать адекватную реакцию на этот идентифицированный им как-то раздражитель, он должен сопоставить её с каким-то своим опытом – с тем, что он уже знает;
- он обращается к своей базе данных (своему «опыту») и находит некое соответствие, и производит реакцию – некое поведение, а проще говоря, предлагает перевод слова или фразы.
Если вы имеете хоть какое-то представление о том, как развивалась психотерапевтическая наука, а слова «бихевиоризм» и «когнитивно-поведенческая психотерапия» для вас не пустой звук, то вы уже понимаете, что мы имеем дело с классической моделью психики.
Всем этим я хочу сказать, что наблюдаемая нами разница между «интеллектами» человека и машины – лишь кажущаяся. Безусловно, она есть, эти «интеллекты» не идентичны. Но то, что мы считаем этой «разницей», ею точно не является, она в чём-то другом. И нам предстоит понять, в чём именно.
Но вернёмся пока к истории с названием «искусственный интеллект», которая со временем стала походить на трагикомический сериал.
Как я уже сказал, Джон Маккарти думал лишь о том, как, с помощью компьютеров помочь человеку в решении задач, с которыми мы так или иначе сталкиваемся. Он был большим поклонником математической логики, применение которой искал в своей работе.
В общем, называя «искусственным интеллектом» искусственный интеллект, он и не предполагал, что кто-то решит, что речь идёт о создании существа, подобного человеку. Сам того не желая, он учинил большую языковую игру…
Будучи невероятным трудягой и успешным учёным, Маккарти основал в Стэнфорде Лабораторию искусственного интеллекта, которая на протяжении многих лет занималась самыми разными исследованиями в области робототехники, машинного зрения, распознавания речи и т. д.
Спустя полвека после той исторической сессии Дартмутского летнего исследовательского проекта, где на свет появилось словосочетание «искусственный интеллект», Джон Маккарти напишет:
«Проблема состоит в том, что пока мы не можем в целом определить, какие вычислительные процедуры мы хотим называть интеллектуальными. Мы понимаем некоторые механизмы интеллекта и не понимаем остальные. Поэтому под интеллектом в пределах этой науки понимается только вычислительная составляющая способности достигать целей в мире».
(Отрывок из книги «Четвёртая мировая война. Будущее уже рядом»)
1 Теория автоматов – это раздел дискретной математики, который изучает вычислительные машины, представленные в виде математических моделей. Автомат по заданному алгоритму преобразует дискретную информацию по шагам в дискретные моменты времени.
2 Эмуляция коннектома предполагает перевод данных, собранных в результате подробного картирования всех связей мозга, в цифровую форму, позволяющую использовать эту модель для воспроизводства интеллектуальной деятельности эмулируемого мозга.