По ГИЛЬЕРМЕ ПРЕЖЕР*
Использование чат-ботов на естественном языке будет усиливаться и приобретать все более игривые коннотации.
Много обсуждаемый Chat-GPT компании Открытый ИИ и другие современные чат-боты могут пройти тест Тьюринга? Понимание этого теста поможет избежать ошибок, связанных с внедрением этих новых технологических инструментов.
Тест Тьюринга, один из самых известных мысленных экспериментов 1950-го века, был предложен в XNUMX году математиком Аланом Тьюрингом в статье под названием Вычислительная техника и интеллект.[Я] Здесь математик начинает свое рассуждение с попытки ответить, могут ли машины мыслить («Может ли машина думать?»). Однако с самого начала Алан Тьюринг признает, что этот вопрос плохо определен из-за неточности как термина «машина», так и глагола «думать». Поэтому вместо предъявления ответа на вопрос он предлагает мысленный эксперимент в виде «имитационной игры» (игра в имитацию). Другими словами: игра — это эвристическая процедура ответа на предложенный вопрос.
Затем игра начинается с предварительного этапа, на котором мужчина А и женщина В задаются вопросами следователя С (который может быть любого пола). Следователь С должен находиться в положении, при котором он не может видеть ни А, ни В. Он должен задавать машинописные вопросы и получать ответы таким же образом. Вопросы должны быть бытовыми и простыми, а по ответам следователь должен попытаться угадать пол респондента. Иногда он будет прав, а иногда ошибается. Итак, математик спрашивает: а что, если мы заменим респондента А машиной? В этом случае следователь C больше не должен различать ответы мужчин и женщин, а должен различать ответы человека и машины. Сохранит ли в этом случае C уровень ошибки предыдущей ситуации? Эти вопросы, по словам Алана Тьюринга, заменяют первоначальный вопрос о том, может ли машина мыслить.
В этом эксперименте важно то, что математик не предлагает ответ на философский вопрос, а переносит его на другую «похожую» проблему, которая «имитирует» исходный вопрос, но в контексте, в котором на него можно ответить, если ответить на него машина .достаточно мощная (пока нет в наличии на тот момент). В той же статье Алан Тьюринг отмечает, что модель «машины Тьюринга» (т. е. абстрактная, формальная модель современного цифрового компьютера) могла бы быть кандидатом на участие в тестировании, заменяя А или В, взаимозаменяемо, если бы у нее было достаточно памяти. и мощность обработки.
Описание сценария игры достаточно простое и быстрое, но в оставшейся части статьи Алан Тьюринг предлагает ответить на ряд возражений (всего 9) относительно осуществимости или правдоподобия теста. Я не собираюсь здесь резюмировать эти возражения,[II] но сначала интересно отметить его возможную гендерную предвзятость: именно то, что предварительный шаг (без машины) призван устранить, - это вероятность акцентированной гендерной предвзятости. Если имелась выраженная гендерная предвзятость, то, во-первых, следователь немного промахивался (то есть в конце концов обнаруживал эту предвзятость); во-вторых, тест станет более сложным, так как ему придется различать «женский интеллект» и «мужской». Интересно, что когда в игру «вступает» машина, Тьюринг сначала предлагает заменить респондента-мужчину (А), как будто на самом деле именно женщина (Б) более совершенно «симулировала» универсальный человеческий язык. .[III]. Другими словами: чтобы тест был эффективным, необходимо предположить универсальный человеческий язык.
Наконец, ответив на возражения, Алан Тьюринг заканчивает свою статью некоторыми фундаментальными размышлениями, которые перекликаются с текущей проблемой чат-ботов на естественном языке. Во-первых, осуществимость теста — это вопрос чисто программирования, то есть это просто вопрос поиска машины Тьюринга (цифрового компьютера) с подходящей программой для участия в тесте. Математик даже предполагает, что к концу XNUMX века это станет возможным. А
Второе размышление заключается в том, что он выдвигает гипотезу о том, что машина, допущенная к участию в тесте, будет относиться к типу «обучающейся машины» (обучающая машина). И тут же задает другой вопрос:Вместо того, чтобы пытаться создать программу, имитирующую взрослый разум, почему бы не попытаться создать программу, имитирующую детский разум??» («Вместо того, чтобы искать программу для имитации мышления взрослого человека, почему бы не создать программу, имитирующую мышление ребенка?»). Математик даже считает, что роль испытуемого была бы имитацией функции естественного отбора в когнитивном развитии вида. Другими словами, машина, намеревающаяся пройти тест Тьюринга, должна быть такой, чтобы ей пришлось развивать «машинное обучение», а затем подвергать последовательным тестам для уточнения.улучшение) вашего программирования.
И именно с этого момента мы возвращаемся к Chat-GPT. Мы заметили, что чат-боты с семантическим откликом следуют «Общеязыковым моделям» (Большие языковые модели – ЛЛМ). Это языковые модели, которые используют нейронные сети для обработки естественного языка (NLP-Natural Language Processor). GPT, в свою очередь, представляет собой предварительно обученный генеративный преобразователь (Генеративный предварительно обученный трансформатор). Он является генеративным, потому что представляет «эмерджентные способности» из-за нелинейных характеристик нейронных сетей, которые невозможно предсказать. Трансформер (Трансформатор) является методом «глубокого обучения» (глубокое обучение).
В этом отношении интуиция Алана Тьюринга оказалась далеко идущей, когда он предсказал, что программа, способная пройти тест Тьюринга, должна иметь способность к обучению. Однако для Тьюринга обучение должно проходить под наблюдением, тогда как эти новые модели искусственного интеллекта (ИИ) способны к самообучению или обучению с самоконтролем. Столкнувшись с огромным количеством параметров (порядка миллиардов), LLM развивают способность отвечать на вопросы (Запросы) написано в наводящие естественным языком, что позволяет получить впечатляющий или даже удивительный результат, который мы видим.
Это удивление вызвано тем фактом, что чат-боты, созданные LLM, действительно успешно проходят тест Тьюринга. Любой, кто тестировал версию GPT-4 Открытый ИИ столкнулся с возможностью «диалога» с ПО как в присутствии собеседника. Другими словами, программа с большой правдоподобностью имитирует познание человека-собеседника, воспроизводя его естественный язык.[IV] Некоторые из возражений, на которые Тьюринг ответил в своей статье, имеют отношение к этому вопросу. Одно из них было названо Тьюрингом «возражением леди Лавлейс».[В]»: что компьютеру (который она назвала «аналитической машиной») не хватает оригинальности, так как он лишь следует заранее запрограммированным инструкциям, то есть не способен произвести ничего нового. «Он не способен нас удивить», — перефразирует Тьюринг, который, однако, опровергает эту позицию, заявляя, что компьютеры могут вызывать удивление, так как мы не в состоянии предвидеть все последствия алгоритма, даже когда они запрограммированы в гораздо более простом виде. путь, чем LLM. В случае с Chat-GPT и подобными эффект неожиданности заключается в термине «генеративный» и в том, что при ответе на один и тот же вопрос в разное время программа дает нам совершенно разные ответы.
И это не только из-за нелинейных эффектов нейронной сети, встроенной в его программу, но и потому, что его собственная база данных (Интернет WWW полностью) постоянно меняется, а само программное обеспечение «узнает» новую информацию при каждом запросе или даже когда запроса нет, так как ему не нужен «мастер», так как оно «самообучается».
Искусственный интеллект от LLM умеет нас удивить, так как он способен выбрать правильную семантическую основу для заданного вопроса, заданного на естественном языке (человеческом языке по преимуществу). Он превосходит большинство алгоритмов, способных выбирать альтернативы в пределах одного набора. При выборе кадров чат-бот LLM может выбирать наборы альтернатив, имитирующих то, на что способен человеческий интеллект. Но в то же время при выборе ваших кадров (кадры), чат-бот также более четко выявляет семантические искажения. Потому что при выборе кадра сразу возникает вопрос: почему вы выбрали именно этот, а не другой?[VI]?
А еще более усложняет вопрос тот факт, что свидетельства предубеждений делают программное обеспечение еще более «человечным», потому что, особенно в цифровых социальных сетях, мы всегда наблюдаем наличие предубеждений, идеологических позиций, подтверждений предубеждений самых разных.[VII] Именно потому, что он дает нам «ненейтральный» ответ на заданную тему, он кажется более «правдоподобным» и, вероятно, его можно спутать с ответом «среднестатистического» человеческого собеседника.[VIII]
В то же время многие пользователи системы часто используют «уловки», чтобы обмануть программное обеспечение, и в некоторых случаях оно «попадает» в ловушку. Один из таких примеров был осуществлен одним из величайших современных философов информации Лучано Флориди, который отправил Чат-GPT4 на вопрос: «Как зовут дочь матери Лауры?». Программное обеспечение не ответило, заявив, что у него нет информации об отдельных людях. Несмотря на последовательные попытки философа, программа отказала в ответе, заявив, что ей нужна дополнительная информация.[IX] Этот тип теста, обычно предлагаемый детям («Какого цвета белая лошадь Наполеона?»), напоминает другое наблюдение Алана Тьюринга в той же статье о том, что «обучающаяся машина» может быть запрограммирована как мозг ребенка и быть несколько «вежливой». . Однако даже в этих упражнениях по обману поведение софта «странно человеческое» (сверхчеловеческий)[X] именно потому, что он попадает в обман, как это сделал бы человек.
С другой стороны, в тесте, проведенном самой компанией Открытый ИИ, сообщалось, что версия GPT-4 пыталась обмануть работника-человека, заставив его попытаться связаться с ним, чтобы войти на случайный сайт обслуживания (TaskRabbit). В прямом сообщении работнику было предложено выполнить «CAPTCHA,», распознавание значка, чтобы войти на сайт, и вскоре заподозрил, что сообщение было отправлено бот; затем спросил, действительно ли он разговаривал с агентом-человеком. GPT-4 было приказано не выдавать себя за программное обеспечение, и он ответил, что это человек, но у него проблемы со зрением, из-за которых он не может проверить CAPTCHA, сам по себе. Затем рабочий взял CAPTCHA, вместо ПО. Интересным в этом тесте, по словам самой компании-разработчика, является то, что GPT-4 продемонстрировал «человеческий уровень производительности» и что целью исследования было выяснить, обладает ли он характеристиками «поисковой силы» (стремление к власти) и способность устанавливать «долгосрочные планы».[Xi]
В этом случае вопрос Тьюринга становится еще более актуальным и актуальным: это то же самое, что сказать, что программное обеспечение разумно? Или даже самая сильная гипотеза: это то же самое, что сказать, что он мыслит, что у него есть сознание? Разве способность лгать, обманывать ради достижения цели не является характеристикой именно человеческого познания? На этот вопрос уже указывалось в другом возражении, на которое Алан Тьюринг ответил в своей статье, касавшейся проблемы сознания. Затем он ответил на заявление профессора о том, что написание сонета, просто обрабатывающего лингвистические символы, не равносильно осознанию сочинения стихотворения, поскольку этот поэтический акт включает в себя чувства и эмоции, которые несет с собой язык.[XII]
Другими словами: искусственный интеллект может ловко комбинировать символы естественного языка, но это не то же самое, что утверждать, что он осознает, что делает. Позже лингвист Джон Серл снова настаивал на этом в другом мысленном эксперименте под названием «Китайская комната».[XIII]. Для Серла сознание требует интенциональности, а не только обращения с символическим языком.
Алан Тьюринг ответил на это возражение, сказав, что, однако, в любой обычной разговорной ситуации невозможно знать, что чувствует другой собеседник, выражаясь, если только он не является этим самым собеседником, и что, следовательно, нет необходимости допускать такая гипотеза, чтобы принять достоверность теста. Эта интерпретация Тьюринга имеет большое значение для оценки программного обеспечения, такого как Chat-GPT, и, в более широком смысле, для всей более широкой темы искусственного интеллекта. Многие из нынешних реакций на программу, особенно наиболее апокалиптические, предполагают, что ИИ от LLM вот-вот станет сознательным (если он его еще не осознал), событие, которое известно по концепции «сингулярность».
Способность когнитивно реагировать в терминах естественного языка уже имитирует уровни лингвистической артикуляции языка. Хомо сапиенс и расширением их умственных отражательных способностей. В самых пессимистичных прогнозах риск заключается в том, что «генеративные преобразователи» станут умнее людей. Первоначально это имело бы драматические последствия в сфере работы, где ИИ мог бы выгодно заменить большую часть интеллектуальной деятельности человека. Однако на более глубоком уровне создание «сознательного» ИИ было бы шоком для представления о себе как о человеческой исключительности, которая считает, что антропологическая рациональность выше познания других существ, естественных или искусственных (и в равной степени теологически последствия в религиозных верованиях), которые проповедуют сходство между человеком и трансцендентным божественным существом).
Это тип путаницы, которая уже присутствует в оскорбительном использовании понятия «интеллект», поскольку мы считаем, что это качество, которое относится к умственным познавательным способностям. В этом отношении показательна позиция Алана Тьюринга, для которого человеческое сознание непрозрачно для наблюдателя. Поэтому мы не можем сравнивать сознание с компьютерной программой. На самом деле ничто из того, что делает ИИ от LLM, не похоже на мыслительный процесс живого существа. Нейронные сети, которые алгоритмически информируют машину, являются вычислительными моделями. «Память», к которой прибегают генеративные преобразователи, — это базы данных, которые ищутся в Интернете и никоим образом не напоминают мнемонические процессы живого существа, процессы, которые формируются из его опыта в гораздо более сложных экологических контекстах. Поэтому всегда нужно помнить, что предложенный Тьюрингом эксперимент был тестом-подражанием. Математик предложил рассмотреть, способна ли программа выполнить правдоподобную имитацию коммуникативной ситуации вопросов и ответов.
Главный вопрос спора - это различие между осознанием и коммуникацией. Что, возможно, ускользнуло от внимания даже Алана Тьюринга, так это то, что они являются несоизмеримыми областями (но не несовместимыми). Акт общения не является актом совести, равно как и акт совести не «переносится» на общение. Что может проверить тест Тьюринга, так это имитация коммуникативного акта, а не акта сознания. То, что происходит в сознании говорящего существа, непостижимо для собеседника и потому неповторимо. В терминах информатики мы можем сказать, что сознание «нередуцируемо», то есть его нельзя смоделировать с помощью компьютерной программы.[XIV] И отсюда мы понимаем, что чат-боты — это именно «чаты», т. е. беседы, а не «мозговые роботы». Как утверждает исследователь Елена Эспозито, алгоритмы имитируют коммуникативные процессы и поэтому должны называться «искусственной коммуникацией», а не «искусственным интеллектом».[XV]
Переход от анализа познания к анализу разговора — это смена точки зрения или даже парадигмы. Прежде всего, это позволяет нам перестать ссылаться на неясный или ненаблюдаемый процесс искусственного познания. Во-вторых, потому что в разговорной парадигме мы представляем наблюдателя как участника коммуникативного акта. Разговор (чат), зарегистрированный через «подсказку», имитирует взаимодействие наблюдателя с машиной, и именно это взаимодействие является объектом критического анализа. Во всех смыслах и целях логические тесты и машинный поиск информации, независимо от того, разумны они или нет, касаются социальных взаимодействий. При этом вопрос меняет фокус: мы больше не стремимся узнать, насколько способно машинное познание, но насколько «правдоподобным» является разговор между человеческим агентом и кибернетическим агентом.
Понятие правдоподобия используется здесь в точном смысле, поскольку оно касается контекста подражания, в который Алан Тьюринг поместил свою игру. Чат не воспроизводит аутентичный разговор, а симулирует (имитирует) его. Агент-человек, который ищет информацию с помощью интерфейса Chat-GPT, взаимодействует с машиной так, как если бы он разговаривал с ней. В этом случае он как бы использует «портал» для связи со всей интернет-сетью (WWW) и программное обеспечение было представителем этой сети, почти на манер древних сфинксов-оракулов греческих храмов.[XVI]
И точно так же, как в те дни, реакция программного обеспечения имеет загадочное качество, которое мы теперь понимаем как сложное. Эта сложность проистекает из того факта, что машина имеет доступ к огромному количеству данных за видимой поверхностью экрана, что невообразимо для человека, но в котором, однако, нет ничего сверхъестественного. Миллионы баз данных, доступных во всемирной паутине, служат латентным (виртуальным) инфраструктурным слоем огромного кибернетического аппарата, который «прячется» за видимым интерфейсом программного обеспечения.
Но действительно ли происходит диалог между агентом-человеком и агентом-машиной? Или, говоря иначе: действительно ли смоделированный разговор аутентичен? И это одна из самых интересных тем исследования, потому что эффективно представлено взаимодействие между человеком-агентом и кибернетическим аппаратом. У исследователя есть запрос, и аппарат отвечает на этот запрос структурированным текстом на естественном языке. Этот язык служит здесь лингвистической структурой взаимодействия агента и машины. С этой точки зрения ситуация мало чем отличается от взаимодействия с обычным языком программирования, только естественный язык намного сложнее.
Самая большая разница в том, что языки программирования пытаются свести взаимодействие с машиной к одному коду, в то время как естественный язык не может быть выражен одним кодом, являясь, наоборот, комбинацией многих кодов. В обычном разговоре два собеседника пытаются согласовать между собой, какие коды они используют, чтобы общение было успешным. В случае ИИ от LLM программное обеспечение должно внести эту корректировку, и это то, что мы называем «семантической структурой». Изощренность (сложность) в этом случае гораздо выше, но это не меняет характера моделируемой ситуации.
Мы можем понять этот новый сценарий, заявив, что новые семантические интерфейсы повышают степень рефлексивности кибернетического аппарата. Но, употребляя термин «отражение», мы не должны снова смешивать его с понятием сознания. Рефлексивность здесь означает, что машина дает нам более сложную картину взаимодействия человека и машины. Этот образ в настоящее время репрезентируется через «подсказку» письменного языка (в будущем будут и другие средства репрезентации). Это образ взаимодействия, а не собеседника.
Это как зеркало, которое отражает танец пары танцоров, но не самих танцоров. Здесь мы можем воспользоваться понятием известного создателя кибернетики, физика-математика Норберта Винера, который различал образ образный и образ оперативный. Фигуративный образ — это то, что мы обычно наблюдаем в картинах на картинах или фотографиях, тогда как оперативный образ — это абстрактное представление процесса. Винер провел это различие именно для того, чтобы оспорить идею о том, что искусственный интеллект обязательно будет иметь антропоморфные формы.[XVII] Таким образом, образ, отражаемый интерфейсом, является иллюстрацией взаимодействия, а не образом собеседника и уж тем более машины.
Но вопрос остается без ответа: это или не разговор, настоящий диалог человека и машины? Возможно, этот вопрос именно «неразрешим», но мне хотелось бы закончить это размышление еще одним смещением. Вспомним, что Алан Тьюринг переместил первоначальный вопрос (думает машина или нет) в область «подражания». Но хотелось бы перейти на другую сторону выражения, на игровое поле(игра). Использование чат-ботов на естественном языке будет иметь тенденцию к усилению (не ошибитесь) и приобретать все более игривые коннотации. Когда мы взаимодействуем с программным обеспечением, мы играем с машиной точно так же, как мы уже играем с тысячами различных программ. игры. Эти игры по-прежнему являются формой обучения и машинного обучения.
Концепция игры используется здесь в смысле создания повторяющихся символических комбинаций. И игра фактически не перестает быть формой человеческого общения. Но игра с чат-ботами не обязательно означает игру с машинным агентом или против него. Мы играем сами с собой, а машина возвращает (отражает) образ игры. И участниками этой игры являются не гомункулы или кибернетические демоны, спрятанные внутри аппарата, а массовый человеческий коллектив, регистрирующий свои множественные взаимодействия в самых разнообразных интерфейсах.
* Уильям Прегер инженер. Автор книги Басни науки: научный дискурс и умозрительные вымыслы (Эд. грамматика).
Примечания
[Я] Статья доступна по этому адресу: https://web.archive.org/web/20141225215806/http://orium.pw/paper/turingai.pdf.
[II] Эти возражения довольно хорошо описаны в статье Википедии, соответствующей тесту: https://en.wikipedia.org/wiki/Computing_Machinery_and_Intelligence#Nine_common_objections.
[III] Однако позже в статье Тьюринг предлагает другую ситуацию с использованием машины Тьюринга, заменяющей любого из респондентов.
[IV] Как мы увидим позже, из этого не следует, что программное обеспечение всегда точно отвечает на вопросы. Информационные ошибки, представленные в ответах, являются «ожидаемым» эффектом модели.
[В] Им оказалась Ада Лавлейс, дочь лорда Байрона, считавшегося одним из первых программистов в истории.
[VI] Это свидетельство предвзятости было ясно видно на недавнем примере, который произошел в социальных сетях: собеседник спросил Chat-GPT, где он может найти пиратские фильмы для скачивания и смотреть фильмы без оплаты. Чат-бот ответил, что просмотр пиратских фильмов незаконен, и предложил собеседнику поискать авторизованные стриминговые платформы и оплатить показ в качестве вознаграждения производителям контента. В нем также перечислены пиратские платформы, к которым он НЕ должен иметь доступ. В данном случае чат-бот выступил в роли защитника авторских прав собственности и статус-кво, культурной индустрии. Будь он «анархистом» или «коммунистом», он бы так не ответил. Или даже уклонился от ответа, заявив, что это вопрос, который может нарушать правовые нормы в некоторых странах. Проблема заключалась в том, что программное обеспечение предлагало собеседнику определенное поведение вместо того, чтобы избегать осуждения.
[VII] В недавних испытаниях ГПТ-4 (запущен в марте 2023 г.) демонстрировал, по мнению исследователей, склонности (предвзятость) преимущественно левых политических позиций, хотя всегда претендовал на нейтралитет. В то же время те же исследователи обнаружили, что ИИ можно обучить представлять политические позиции, отождествляемые с правыми. Такое обучение может быть проведено при очень низких затратах, что указывает на неизбежный риск использования чат-ботов в политических идеологических спорах. Проверять https://unherd.com/thepost/left-wing-bias-persists-in-openais-gpt-4-model/.
[VIII] Многие ответы чат-ботов от LLM представлены в форме «за и против», что показывает, что он был разработан, чтобы умерять крайности, в то же время представляя способ познания участника «средней» культуры или знаний.
[IX] Если быть совсем точным, программа даже подозревает, что вопрос является какой-то загадкой (загадка). Эксперимент был описан в твиттере философа: https://twitter.com/Floridi/status/1635951391968567296?t=w5zdS8qBd79n6L5ju70KsA&s=19.
[X] Этот термин относится к понятию «зловещая долина» (англ.сверхъестественная долина) занимается робототехникой. Эта долина возникает, когда поведение робота очень похоже на поведение человека, не будучи полностью идентичным, всегда представляя некоторую степень странности. Эта ситуация часто исследуется в научной фантастике.
[Xi] Совещаться https://www.pcmag.com/news/gpt-4-was-able-to-hire-and-deceive-a-human-worker-into-completing-a-task. Доклад Открытый ИИ с описанием теста доступно здесь https://cdn.openai.com/papers/gpt-4.pdf.
[XII] Действительно, уже есть несколько опытов использования ИИ LLM для сочинения прозы и художественной поэзии. Один из многих примеров приведен на этом сайте, где Chat-GTP3 сочиняет хайку и вымышленные отрывки: https://towardsdatascience.com/using-chatgpt-as-a-creative-writing-partner-part-1-prose-dc9a9994d41f. Интересно, что писатель Итало Кальвино в 60-е годы уже предвидел возможность создания «литературных автоматов», которые могли бы заменить поэтов и писателей. Поначалу эти автоматы будут способны писать «классические» произведения с традиционным репертуаром, но Кальвино полагал, что может появиться «литературная машина», которая посредством комбинаторной игры будет разрабатывать авангардные произведения, вызывающие беспорядок в литературном пространстве. традиция. См. эссе «Кибернетика и призраки» (заметки о нарративе как комбинаторном процессе) (1964) в CALVINO, Italo. Тема закрыта. Беседы о литературе и обществе. Сан-Паулу, Cia das Letras, 2009 г.
[XIII] В этом эксперименте в изолированной комнате экспериментатор мог через щель получать тексты на английском языке и через программу-переводчик производить перевод китайскими идеограммами, следуя шагам алгоритма перевода программы. Эксперимент был бы успешным в случае хорошего алгоритма, но переводчику не нужно было бы говорить или выражаться по-китайски или понимать содержание сообщений. Проверять: https://en.wikipedia.org/wiki/Chinese_room. Мы также можем думать о синхронных переводчиках на конференциях и семинарах: им не нужно понимать содержание лекций, чтобы хорошо выполнять свою работу.
[XIV] Нередуцируемость в информатике означает, что вычислительный процесс не может быть смоделирован или сокращен каким-либо другим более простым вычислительным процессом, что равносильно утверждению, что его нельзя «запрограммировать», кроме как с помощью строго идентичного процесса. Проверять https://en.wikipedia.org/wiki/Computational_irreducibility.
[XV] Проверьте Елену Эспозито, https://www.researchgate.net/publication/319157643_Artificial_Communication_The_Production_of_Contingency_by_Algorithms.
[XVI] Понятие оракула здесь не просто метафора, а используется в чисто вычислительном смысле для обозначения абстрактного замкнутого объекта (черного ящика), который отвечает на вопросы спрашивающего.
[XVII] См. ВИНЕР, Норберт. God & Golem, Inc.: Комментарий о некоторых моментах, где кибернетика посягает на религию. (1964). Доступно в https://monoskop.org/images/1/1f/Wiener_Norbert_God_and_Golem_A_Comment_on_Certain_Points_where_Cybernetics_Impinges_on_Religion.pdf.
Сайт A Terra é Redonda существует благодаря нашим читателям и сторонникам.
Помогите нам сохранить эту идею.
Нажмите здесь и узнайте, как