"Могут ли машины мыслить?" - читать интересную книгу автора (Тьюринг Алан)
5. Возражения, исходящие из того, что машина не все может выполнить [Arguments from Various Disabilities]
Обычно эти возражения выражают в такой форме: «Я согласен с тем, что вы можете заставить машины делать все, о чем вы упоминали, но вам никогда не удастся заставить их делать X». При этом перечисляют довольно длинный список значений этого X. Я предлагаю читателю выбирать: «Быть добрым, находчивым, красивым, дружелюбным, быть инициативным, обладать чувством юмора, отличать правильное от неправильного, совершать ошибки, влюбляться, получать удовольствие от клубники со сливками, заставить кого-нибудь полюбить себя, извлекать уроки из своего опыта, правильно употреблять слова, думать о себе, обладать таким же разнообразием в поведении, каким обладает человек, создавать нечто подлинно новое».
Обычно в подтверждение подобных высказываний не приводят никаких доводов. Я убежден, что эти высказывания основываются главным образом на принципе неполной индукции[14]. Человек в течение своей жизни видел тысячи машин. Из того, что он видел, он делает ряд общих заключений. Машины безобразны, каждая из них создана для того, чтобы выполнять весьма ограниченные задачи, если необходимо сделать нечто иное, они бесполезны, вариации их поведения крайне незначительны и т.д. и т.п. Естественно, человек делает вывод, что все это является необходимыми особенностями всех машин в целом. Многие из этих ограничений связаны с очень маленькой емкостью памяти большинства машин. (При этом я предполагаю, что понятие емкости памяти машины несколько обобщено таким образом, что охватывает и машины, отличные от машин с дискретными состояниями. Точное определение не играет здесь никакой роли, так как в настоящем рассмотрении мы не претендуем на математическую строгость.) Несколько лет назад, когда очень немногие знали о цифровых вычислительных машинах, часто приходилось встречаться с недоверчивым отношением к тому, что о них рассказывали, если об их замечательных свойствах говорили, не объясняя, как такие машины устроены. Это, вероятно, происходило из-за того, что слушавшие шаблонно применяли принцип неполной индукции. Разумеется, применение этого принципа происходило в основном бессознательно. Если ребенок, обжегшись один раз, боится огня и выражает страх перед огнем тем, что избегает его, то я бы сказал, что он применяет неполную индукцию (само собой разумеется, поведение ребенка можно описать и по-другому). Я не думаю, чтобы трудовая деятельность и обычаи человечества были особенно удачным материалом для применения неполной индукции. Большую часть пространственно-временного континуума [space-time] необходимо пытливо исследовать, если мы хотим получить надежные результаты. В противном случае мы можем прийти, скажем, к выводу (к которому приходит большинство английских детей), что все говорят по-английски и что глупо изучать французский язык.
Выражение «неполная индукция» русского перевода соответствует выражению «scientific induction» (буквально: «научная индукция») английского оригинала. Такой перевод выбран потому, что выражение «научная индукция» употребляется у нас обычно не в том смысле, который имеет в статье Тьюринга выражение «scientific induction» (под «научной индукцией» в нашей литературе обычно понимают сложное рассуждение, основанное на совместном применении неполной индукции и дедукции, которое при определенных условиях – последние, впрочем, не уточняются – может давать достоверное заключение).
Короче говоря, здесь имеется в виду то, что при индуктивном умозаключении от частного к общему мы можем получить весьма сомнительный, если вообще не абсолютно ложный вывод – как в тьюринговском примере с английскими детьми (хотя в современном мире более яркий пример явили бы собою американские дети, равно как и многие американские взрослые).
Вот еще один пример умозаключения по (неполной) индукции. «Неужели наша школа „учимся говорить публично“ нужна только двадцати человекам, …Нет, я знаю, уверен, что умение говорить нужно каждому из нас. …Да, курс „учимся говорить публично“ […] способен помочь каждому человеку значительно улучшить свою устную речь». – Прим. И.Д.
Однако относительно многого из того, что было названо в числе вещей, недоступных машине, следует сделать особые оговорки. Неспособность машины получать удовольствие от клубники со сливками может показаться читателю пустяком. Весьма возможно даже, что мы могли бы сделать так, чтобы машина получала удовольствие от этого изысканного блюда, но любая попытка в этом направлении была бы идиотизмом. Эта неспособность машины приобретает значение лишь в сочетании с другими труднодоступными для нее вещами, например, в сочетании с трудностью установления между нею и человеком такого же отношения дружелюбия, какое бывает между двумя людьми.
Фраза в английском оригинале звучит так: «As between white man and white man, or between black man and black man» («между белым мужчиной и белым мужчиной, или между черным мужчиной и черным мужчиной»; «man» может переводиться и как «человек», и как «мужчина»). Иными словами, переводчик здесь изрядно «закрасил» непристойную в советские времена шутку (ясно, какого рода отношения между мужчинами мог иметь в виду здесь Тьюринг, хоть он и вставил «для отвода глаз» «проблемную расовую тему»). Эту неточность перевода я обнаружил совершенно случайно, и из-за нее, по всей видимости, позже придется пересмотреть весь публикуемый русский перевод, поскольку я думаю, что это далеко не единичный случай «сглаживания» игривого тона автора. – Прим. И.Д.
Утверждение «машины не могут совершать ошибок» кажется мне курьезным. Его пытаются парировать: «А разве они от этого хуже?» Отнесемся к этому утверждению не столь враждебно и попытаемся понять, что имеют в виду в действительности. Я думаю, что возражение, содержащееся в утверждении «машины не могут совершать ошибок», можно пояснить с помощью «игры в имитацию». Требуется, чтобы задающий вопросы отличил машину от человека, просто задавая им ряд арифметических задач; машина должна разоблачить себя вследствие своей высокой точности. Ответ на эту аргументацию очень прост. Можно сделать так, чтобы машина (запрограммированная для участия в игре) не стремилась давать правильные ответы на арифметические задачи. Она может в известной мере специально вводить ошибки в вычисления, для того чтобы сбить с толку задающего вопросы. Что касается ошибок, связанных с механическими неисправностями, то такие ошибки обнаружат себя, по-видимому, тем, что ошибочный результат в этом случае окажется трудно подвести под некоторый общий род типичных арифметических ошибок. Однако даже такая интерпретация данного возражения не является приемлемой. Размеры настоящей статьи не позволяют нам остановиться на этом более подробно. Мне кажется, что это возражение возникает потому, что смешивают ошибки двух родов. Их можно называть «ошибками функционирования» и «ошибками вывода». Ошибки функционирования происходят вследствие некоторых механических или электрических неисправностей, в результате которых машина ведет себя не так, как это было намечено. В философских дискуссиях обычно отвлекаются от возможности ошибок такого рода; поэтому подвергают рассмотрению «абстрактные машины». Эти абстрактные машины – математические фикции, а не реально существующие объекты. По определению, они не могут иметь ошибок функционирования. В этом смысле мы действительно можем сказать, что «машины никогда не могут ошибаться». Ошибки вывода могут возникать лишь тогда, когда сигналу на выходе машины придан определенный смысл. Например, машина может выдавать в печатном виде математические уравнения или какие-нибудь высказывания на русском (английском) языке. Если при этом печатается ложное предложение, мы говорим, что машина совершила ошибку вывода. У нас, очевидно, вовсе нет оснований для утверждения, что машина не может совершать ошибок этого рода. Например, она может только и делать, что печатать «0=1». В качестве более естественного примера рассмотрим машину, располагающую каким-то методом для того, чтобы делать заключения на основе неполной индукции. Мы должны ожидать, что такой метод в отдельных случаях будет давать ошибочные результаты.
На утверждение о том, что машина не может иметь предметом своей мысли самое себя, можно, конечно, дать ответ лишь в том случае, если бы было возможно показать, что машина вообще имеет какие-либо мысли, выражающие какое-либо предметное содержание. Все же выражение «предметное содержание машинных операций» имеет некоторый смысл, по крайней мере для тех, кто имеет дело с машинными вычислениями. Если, например, машина решает уравнение х2– 40х – 11 = 0, то уравнение можно считать частью предметного содержания операций машины в данный момент. В этом смысле содержанием операций машины, безусловно, может быть она сама. Ее можно использовать при составлении своей собственной программы или для предсказания последствий, вызываемых изменениями в ее устройстве. Наблюдая результаты своего поведения, машина сможет изменять свои собственные программы с тем, чтобы быть более эффективной в достижений некоторой цели. Все это станет возможно в ближайшем будущем; это не утопические мечты.
К сожалению, публикуя статью Тьюринга на страницах газеты, нет возможности даже в краткой степени пояснить, насколько верно здесь Тьюринг смотрел в будущее. – Прим. И.Д.
Возражение, состоящее в том, что машина не отличается разнообразием поведения, является всего лишь способом выражения того обстоятельства, что она не обладает большой емкостью памяти. До самого последнего времени емкость памяти даже в тысячу цифр была очень редкой.
Все возражения, которые мы сейчас разбираем, часто являются просто замаскированной формой возражения с точки зрения сознания. Обычно, если утверждают, что машина может выполнить что-нибудь из того, что было перечислено в начале раздела 5, и при этом описывают сущность метода, которым пользуется машина, это не производит большого впечатления. Считают, что, в чем бы ни состоял этот метод, он должен быть весьма элементарным, так как носит механический характер. Сравните сказанное с тем, что говорит Джефферсон (см. эту ссылку).