По ЭЛЕОНОРА АЛЬБАНО
Наиболее распространенное заблуждение в дискурсе «больших технологий» – нынешних владельцев «великих языковых моделей» и подобных технологий – это полуправда.
Всемогущество точной науки с глобального севера
В эпоху растущей датафикации человеческого опыта неудивительно, что критическое мышление среди ученых находится в упадке. Но в любом случае настораживает то, что такое может произойти в редакции традиционного, престижного – и широкого – академического журнала. Поэтому со смесью удивления и негодования я прочитал приведенный ниже первый абзац редакционной статьи июльского тома журнала за 2023 год. Природа Машинный интеллект. Как известно, редакционная группа Природа, основанный в Лондоне во второй половине XIX века, его миссия — сделать достоверные обзоры достижений в различных областях знаний доступными всему научному сообществу.
Фредерик Елинек, известный чешско-американский исследователь в области обработки естественного языка и распознавания речи, в 1985 году сказал: «Каждый раз, когда я увольняю лингвиста, производительность распознавателя речи повышается», предполагая, что, возможно, не существует эффективного способа включить лингвистические знания в таких системах. Справедливо ли это мнение также для современных моделей больших языков (LLM), которые, по-видимому, в основном являются артефактами информатики и инженерии? И LLM, и лингвистика занимаются человеческими языками, но неясно, могут ли они принести пользу друг другу и каким образом.».[Я]
По крайней мере, безответственно со стороны тех, кто пропагандирует достижения в области искусственного интеллекта (ИИ) среди остального научного сообщества, игнорировать – или не желать признавать – тот факт, что великие языковые модели (далее GML, как в английском языке LLM) ) в значительной степени изучили концепции и методы лингвистики, а также других наук, описывающих и интерпретирующих естественный язык.
Есть как минимум две причины такой дезинформации. Первый – политический. Просто учёные-человековеды – лингвисты, психологи, социологи, антропологи и т.д. – ответственность за таксономию, необходимую для учебных баз данных «великих языковых моделей», как правило, несут граждане «второй категории», нанятые в бедных странах в качестве внештатных и нестандартных работников для задач, которые считаются «тривиальными» по маркировке данных и, при необходимости принятие решения о категоризации.
Вторая — эпистемология, обычно связанная с таким взглядом на действие и, в частности, на человеческий труд: любое действие любой сложности можно свести к цепочке ассоциаций. Здесь признается влияние английского эмпиризма, опосредованное его уже столетней историей.[II] продолжение американской психологии — бихевиоризм.
Ниже мы увидим, как концепция действия, развивавшаяся в Европе, начиная с XVII века, материализует не только деятельность, но и человеческое мышление. Атомистическое представление о механике, достаточно расплывчатое, чтобы вписаться как в эмпиризм, так и в рационализм, позволило исключить определенные группы человечества, уподобив их картезианскому животному-машине. С его помощью европейские колониальные державы легко оправдывали порабощение коренных жителей своих колоний, а также лишение собственности бедняков Европы.
На основе колониального сценария данное эссе призвано показать, что существует тесная связь между политической позицией, которая сводит определенные виды научного труда к конвейеру, и «научной» позицией, которая рассматривает естественный человеческий язык как бесконечное множество взаимосвязанные цепи.
Тот факт, что эти идеи неявно присутствуют в производстве языковых технологий, позволяет их молчаливому насилию, свойственному обучению информатике, служить интересам нынешнего аспекта колониальности, известного как платформенный или надзорный капитализм.[III]
Денатурализованный естественный язык
Вышеупомянутая редакционная статья чтит эмпиристскую традицию не только потому, что журнал англоязычный, но, прежде всего, потому, что область обработки естественного языка (далее НЛП) – подобласть искусственного интеллекта, ответственная за «великие языковые модели». – зародился и процветал в ярко выраженной эмпирической – или, точнее, бихевиористской – среде.
Исследователи в этой области полагают, что человеческий разум — это машина Тьюринга, состоящая из миллиардов автоматов с конечным состоянием.[IV] переплетены. Поэтому неудивительно, что руководители компаний в этой области видят в людях, которые питают «великие языковые модели», просто машины, предоставляющие необходимую и достаточную информацию, позволяющую «великим языковым моделям» пройти тест Тьюринга в будущее следующее.
Эти эксперты даже не осознают (или делают вид, что не осознают), насколько интеллектуальна лежит в основе работы этикетировщиков. Как задокументировал журналист-расследователь Джош Дзеза:[В] в искусственном интеллекте практически невозможно сразу принять интуитивную категорию, поскольку разные примеры одного и того же объекта обычно воспринимаются машиной как нечеткие.
Чтобы научить его имитировать наши категории, теггерам необходимо создать подробную подкатегоризацию и организовать ее в иерархию уровней. Как и другие роботы, «большие языковые модели» требуют бесконечного числа итераций, чтобы достичь обобщений, к которым приходит любой человеческий ребенок после относительно небольшого воздействия на данные.
При обработке естественного языка одним из основных проявлений этого типа трудностей являются синтаксические и семантические контексты, содержащие разрывы.
Обратите внимание, что задача «великой языковой модели» всегда состоит в том, чтобы предсказать следующее слово – как это делают текстовые редакторы мобильных телефонов, хотя и грубо. Это простая задача в случае клише, термины которых встречаются очень часто, но очень трудная в большинстве других случаев.
Таким образом, в выражениях с более низкой частотой статистическая оценка возможна только благодаря четырем компонентам, каждый из которых необходим: база данных из многих миллиардов слов; очень мощная технология, чья способность изучать ассоциации превосходит способность рекуррентных нейронных сетей (даже глубоких, то есть многоуровневых); исчерпывающие грамматические и смысловые описания; и интенсивное обучение, при котором ошибки ассоциации итеративно исправляются. Очевидно, что все вышеупомянутые описания и исправления сделаны людьми – сторонними и ненадежными.
Предполагается, что базы данных, которые питают диалоговых чат-ботов, таких как GPT-чат, из Open AI, Bard, от Google и Bing, от Microsoft, составляют порядка 300 миллиардов слов. Очень мощное устройство, позволяющее использовать его в режиме реального времени, называется трансформатор – переводится как трансформер. Это статистическая модель, которая применяет набор математических методов, называемых «вниманием» и «само-вниманием», для обнаружения зависимостей между элементами цепочки – в первом случае входными или выходными; во втором — сама продолжающаяся цепочка.
Масса взаимосвязанных роботов
Обратите внимание, что трансформатор, лежащий в основе «великих языковых моделей», имеет мало общего с одноименным устройством, изменяющим уровни напряжения электрического тока. Что меняется при выборе одного слова за другим, так это отношения между терминами в базе данных (далее для простоты — корпус), поскольку каждое новое появление возвращает запись и реорганизует существующую сеть отношений.
Нетрудно понять, как это сделать. Все отношения выражаются весами связей между узлами корпусных подсетей. Эти веса, в свою очередь, рассчитываются на основе вероятностей совместного появления возможных пар слов. Трансформатор достаточно мощный, чтобы позволить всем членам корпуса, а также всем его тегам (грамматическим, семантическим, дискурсивным, психологическим, социологическим, политическим, этнографическим и т. д.) соединяться друг с другом одновременно, так что вычисление следующее слово может учитывать самые разнообразные стороны текущего высказывания и его контекста.
Следует отметить, что объем меток, доступных для уточнения этого расчета, огромен. Самые простые охватывают такие аспекты, как грамматические классы и текстовые формы именования и референции (например, имена собственные, личные местоимения, указательные формы, притяжательные падежи и т. д.).
Также стоит отметить, что маркировка не ограничивается словами. Он также понимает части речи (например, подлежащее, сказуемое, дополнения); фразы и их синтаксическая классификация (например, главные, второстепенные и соответствующие подклассы); и устные или письменные текстовые жанры (например, разговорные, литературные, журналистские, юридические, научные и т. д.).
Тот, кто на основании вышесказанного вообразил, что базы данных «больших языковых моделей» выглядят как гигантские словари, «записи» которых неявно присутствуют в их сети связей, решил треть загадки. Однако содержание остальных двух третей не менее важно: оно состоит из важной грамматической и энциклопедической информации, предоставленной, опять же, тэггерами.
Фактически, все появления одного и того же слова связаны друг с другом; а их различные значения представлены математически закодированными сходствами и различиями между предложениями, с которыми они связаны. В итоге это работает примерно так же, как примеры, приведенные в статьях для многозначных слов в словарях.
Более того, элементы каждого предложения связаны с грамматикой. В нем синтаксические структуры отображаются в виде древовидных диаграмм.[VI], в то время как семантические структуры относятся к различным логическим формам (среди прочего, посредством исчисления высказываний) и семантическим полям (например, названия фруктов соединяются снизу вверх с полями фруктов, овощей, продуктов питания и т. д.). Грамматика также относится к индексаторам кореферентности (например, в предложении «João disse que está não faz o his» местоимение «o» может относиться к самому Жуану, ко второму лицу или к третьему лицу).
Наконец, тексты классифицируются на основе мировых знаний (например, по теме, жанру, авторству, тону, стилю, документальным источникам; с ярлыками от самых общих до самых специализированных). Эта информация, после того как она тщательно записана и связана, позволяет осуществлять бесконечное количество поисков для удовлетворения сложных потребностей, таких как решение школьных задач, написание юридических заключений, помощь в постановке медицинских диагнозов и т. д.
Эта гигантская и исчерпывающе взаимосвязанная коллекция дает «великим языковым моделям» огромную возможность строить «новые» предложения путем перефразирования фрагментов данных, содержащихся в самой базе данных. Когда выдающийся лингвист, философ и математик Ноам Хомский говорит, что chatbots они всего лишь плагиаторы, они не говорят, что просто копируют и вставляют буквальные вырезки из основы. Фактически предполагается, что они создают хорошие стилизации своего собственного содержания посредством синонимов и парафраз, соединенных таким образом, что заплаты и швы становятся почти незаметными. Широкие возможности подключения позволяют им легко находить для этого лучшие короткие пути.
Однако конкатенация в конечном итоге терпит неудачу и звучит странно, когда эксперт по определенной теме задает роботу вопрос с подвохом. Посмотрим, как лингвист Рони Кацир[VII] сделал ЧатGTP4 запутаться в многоточии, которое легко поймет любой, владеющий английским языком. Просьба была выбрать лучшее из этих двух предложений: (1) Прибыл человек, которого Мэри встретила вчера и о котором Джон поговорит с Эдом завтра; (2) Прибыл человек, которого Мэри встретила вчера и с которым Джон расскажет Эду о своей новой идее завтра..
Робот не замедлил ответить, что это второй, так как он «более информативный». Таким образом, он проигнорировал английское грамматическое правило, которое требует кореференции между двумя или более скоординированными эллипсами – в данном случае объектомвстретиласьи дополнение предлога к глаголу «говорить в отношении’. Добавление "его новая идея» вызывает резкий разрыв смысла предложения, и без того отягощенного длинными разделениями между подлежащим и основным глаголом, а также между глаголом «говорить' и наречие 'завтра'. Таким образом, в (2) невозможно установить кореференцию междучеловеки два скоординированных появления «который’. Человеческая реакция состоит в том, чтобы просто осудить аномальное предложение, а реакция робота — заставить его интерпретировать.
То, что автор придумал такие извилистые фразы, вероятно, является приемом, чтобы усложнить поиск аналога в базе данных. Важно то, что, тем не менее, предложение (1) грамматическое, а предложение (2) — нет. Всякий раз, когда поиск заканчивается лабиринтом, робот теряется и отклоняется, прибегая к одному из заранее записанных клише.
Подобные клише возникают и тогда, когда кто-то обращается к вам с просьбой о моральной позиции. Настаивая на том, что ChatGPT взял личный взгляд на моральную проблему, исследователь Джеффри Уотумулл, соавтор и соавтор Ноама Хомского.[VIII], добился от него покаянного заявления о своей нечеловечности. Обратим внимание на «скромность» машины: «Как ИИ, я являюсь моделью машинного обучения, обученной на больших объемах текстовых данных, и у меня нет личного опыта или чувств. Я не сознателен, не осознаю себя и не способен иметь личную точку зрения. Я могу предоставить информацию и провести анализ на основе данных, на которых меня обучали, но у меня нет способности формировать личное мнение или убеждения. Хотя я могу понимать и интерпретировать язык, у меня нет того субъективного опыта, который есть у людей.".[IX]
Единственное человеческое качество, от которого не отказывается робот, озвучивая идеи своих создателей, — это понимание естественного языка. Подобно тому, как непризнанная лингвистика под языковыми роботами скрывает своих тегеров, так и непризнанная психология их создателей механизирует человеческие языковые возможности, приравнивая их к гигантской массе взаимосвязанных конечных автоматов через огромный преобразователь.
Ниже мы увидим, что политика поставщиков чат-ботов имеет три основных компонента: (i) избегать исчерпывающих заявлений; (ii) стимулировать общественный интерес к возможному будущему развитию «великих языковых моделей»; (iii) разрешить споры по поводу его трансчеловеческого потенциала[X] как простой спор мнений.
Индивидуальные показы
Наиболее распространенное заблуждение в дискурсе крупных технологических компаний – нынешних владельцев «великих языковых моделей» и связанных с ними технологий – это полуправда. Такие компании являются мастерами маскировать свою снисходительность – если не сказать попустительство – с помощью распространяемой в средствах массовой информации лжи об их продукции. С другой стороны, если их спросить, они быстро дадут разъяснения, точные на первый взгляд, но зачастую недостаточные и скользкие.
Хорошим примером является то, как Google недавно освободила себя от ответственности за слухи о человеческих качествах своего первого прототипа чат-бота».ЛаМда(языковая модель для диалоговых приложений), в 2021 году. Вместо того, чтобы должным образом выпустить и опубликовать заявление о принципах, оно стало достоянием общественности только после того, как инженер из команды добился всплеска вирусности, заявив, что модель стала разумной.
Инженер был отстранен от административной ответственности, и компания заявила о своей позиции, согласно которой разум еще «далеко» от того, чтобы быть достигнутым с помощью роботов, языка или чего-либо еще. При этом он снял с себя ответственность за ложную новость, не отрицая, однако, своих планов по все большей «гуманизации» детищ своего подразделения искусственного интеллекта. Настолько, что самый последний потомок ЛаМдаили Bard, уже есть клише, приспособленное для придирок на эту тему.
Среди других предикатов Bard бесплатно и, на мой взгляд, лучше, чем ChatGPT, его конкурент, запущенный незадолго до этого компанией Open AI при поддержке Microsoft. Вот его осторожный ответ на вопрос, который я ему задал, в точности следуя модели Ватумулла: «Концепция интеллекта, сознания, чувств и способности выносить моральные суждения чат-бота является сложной и до сих пор обсуждается экспертами. Единого определения этих терминов не существует, и они часто используются как взаимозаменяемые. Некоторые эксперты считают, что чат-боты могут быть разумными, но не сознательными или разумными. Они утверждают, что чат-боты — это просто очень сложные алгоритмы, способные обрабатывать информацию и реагировать разумным образом. Однако у них нет такого же уровня осознания или самосознания, как у людей.".[Xi]
Как видно, оба робота, похоже, были обучены так, чтобы не компрометировать своих создателей фантазиями о человечности, которые они пробуждают в своих пользователях.
Чтобы еще раз проверить эту идею, я представил Bard к обсуждению Кациром двух предложений с разными многоточиями с точки зрения грамматики в английском языке. Он немедленно дал ответ, аналогичный ответу GPT-чат. Давайте посмотрим: "Оба предложения грамматически верны, но имеют разное значение. Первое предложение: «Прибыл человек, которого Мэри встретила вчера и о котором Джон поговорит с Эдом завтра», более краткое и прямое. Это говорит нам о том, что человек, которого Мэри встретила вчера, — это тот же человек, о котором Джон будет говорить с Эдом завтра. Второе предложение: «Человек, которого Мэри встретила вчера и с которым Джон расскажет Эду о своей новой идее, прибыл завтра», более подробное. Оно говорит нам, что человек, которого Мэри встретила вчера, — это тот же человек, с которым Джон завтра расскажет Эду о своей новой идее. Первое предложение лучше, если вы хотите подчеркнуть тот факт, что эти два человека одинаковы. Второе предложение лучше, если вы хотите подчеркнуть тот факт, что Джон будет рассказывать Эду о своей новой идее. В конечном счете, лучшее предложение зависит от контекста, в котором оно используется.".[XII]
Наконец, представлена сравнительная таблица двух предложений, которую невозможно воспроизвести здесь, поскольку она представляет собой простое изложение «объяснения», записанного выше.
Давайте теперь попробуем разобраться подробнее в безответственности уклончивых высказываний крупных технологических компаний о своих чат-ботах. У них есть веская причина относиться к различиям между компьютерами и людьми с должной прозрачностью и научной строгостью: о склонности людей к гуманизации языковых роботов люди знали уже более полувека. Вредные последствия этой предвзятости – реальные или потенциальные – также хорошо известны.
Эффект Элизы
Первый чат-бот появился в 1966 году и был назван Элизой его создателем, математиком и инженером-компьютерщиком Джозефом Вейценбаумом, известным как один из отцов искусственного интеллекта.
Важно отметить, что Йозеф Вейценбаум категорически отказался от этого отцовства. Немецкий еврей из семьи, эмигрировавшей в Северную Америку незадолго до Второй мировой войны, он использовал свои математические способности, чтобы выжить в школе и в жизни. Сначала он жил в Канаде, затем переехал в США, где начал академическую карьеру, став приглашенным профессором на кафедре искусственного интеллекта Массачусетского технологического института. Поскольку его растущий скептицизм в отношении ИИ оттолкнул его от коллег, он, наконец, вернулся в Германию в 1996 году, воодушевленный восприимчивостью немецкой интеллигенции к его идеям.
Хотя он никогда не прекращал работать в области вычислительной техники, он не скрывал своей страсти к гуманитарным и общественным исследованиям. Травмы бегства от нацизма и превратности изгнания в определенный момент привели его к встрече с психоанализом. С тех пор он объявил ее эффективной, полезной и незаменимой для понимания человеческой природы.
Создавая Элизу как робота-терапевта, я осознавал, что не смогу дать ей понимание сложности психоаналитика. Затем он задумал ее как роджерианского терапевта, то есть последовательницу метода Карла Роджерса, американского клинического психолога, который выступал за недирективную, личностно-центрированную психотерапию. Это заключалось, грубо говоря, во вставке высказывания пациента во фразы типа «вы мне говорите, что…», добавлении к другим расплывчатым и обнадеживающим клише, например: «И как вы намерены с этим поступить?». После составления этого базового набора не составило труда создать и протестировать программное обеспечение.
Элиза, которая начиналась просто как инструмент для исследования жизнеспособности разговорного робота, вскоре приобрела успех у публики. Джозеф Вайценбаум понял, что эксперимент принимает иное направление, чем ожидалось, когда участники начали отказываться показывать ему содержание своих диалогов с машиной, утверждая, что это личное дело.
Он был уверен, что Элиза на самом деле не понимала, что ей говорили: она просто успешно имитировала это понимание. Однако вскоре он понял, что его публика вряд ли это заметит. Затем он предположил, что они были погружены в психоаналитический перенос, направленный, как ни странно, на машину.
С тех пор этот инженер-гуманист и политизированный инженер стал известен тем, что все более яростно доказывал, что существует несоизмеримая разница между человеческим языком, который производит суждения, которым можно противоречить, и его цифровыми симулякрами, которые состоят только из вычислений, которые можно передать к последовательностям слов, выводимых машиной, запрограммированной для имитации разговоров.
Джозеф Вайценбаум утверждал, что машины никогда не будут рассуждать, как люди, потому что они способны только считать. Появление и развитие нейронных сетей после формулировки его тезисов не лишает законной силы его аргументы. Качественные или количественные (как в случае с весами связей между узлами в таких сетях), расчеты, задействованные в диалоговых технологиях, не имеют доступа ко всем видам информации, которые живой мозг человека или животного способен улавливать, собирать и процесс.
Эта позиция четко выражена в названиях двух его основных книг. И то, и другое — попытки продемонстрировать, что цифровая симуляция естественного языка — не более чем иллюзия, которая заставляет пользователей проецировать свою человечность на машины.
Первая книга называется Мощь компьютера и человеческий разум: от суждения к расчету [XIII]. Второй написан в соавторстве с немецкой писательницей Гунной Вендт и называется Острова в киберпотоке: поиск прибежища разума в запрограммированном обществе[XIV], написанный по его возвращению в Германию и лишь позже переведенный на английский язык. Еще одно многообещающее название — «Против империализма инструментального разума» — глава сборника о противоречиях в вычислительной вселенной.
Обе книги получили неблагоприятные отзывы в США. Например, Джон Маккарти, создавший термин «искусственный интеллект» в 1956 году, вместе с Марвином Мински и его коллегами, опубликовал в 1976 году длинный текст.[XV] назвав первую книгу моралистической и бессвязной. С другой стороны, Дуайт Хайнс, профессор литературы и социальной справедливости в Университете Пойнт-Парк, сделал рецензию на ту же работу в 1980 году:[XVI] описывая это как трудное, но полезное чтение.
До своей смерти в 2008 году Йозеф Вайценбаум выражал большую обеспокоенность по поводу направления того, что он называл «запрограммированным обществом». Он наверняка впал бы в депрессию, если бы оказался среди нас в марте 2023 года, когда произошел фатальный эпизод, вызванный «обновлением» от Элизы. Ответственной компанией была Eleuther AI, которая переработала Eliza на основе своей языковой модели GPT-J, в свою очередь, на основе Chat GPT.
В марте 2023 года молодой бельгийский семьянин, подавленный угрозой экологического коллапса, внезапно покончил жизнь самоубийством. Как сообщила прессе его жена, он «лечил» свою депрессию с помощью нынешней Элизы и заручился ее поддержкой этого решения.
Этой истории, должно быть, было достаточно, чтобы предположить, что современные языковые модели оправдывают опасения Джозефа Вайценбаума о том, что общество, внутренне привязанное к вычислениям, может сбиться с пути и в конечном итоге делегировать важные решения для будущего граждан или даже человечества.
Стоит помнить, что чат-боты даже не обязательно должны быть атакованы преступниками, чтобы представлять опасность: сложные динамические системы, подобные тем, которые реализованы с помощью трансформаторов, обычно представляют собой непредсказуемые возникающие явления. Новости могут появиться в любой момент со столь же непредсказуемыми последствиями. Вполне возможно, что некоторые из них в конечном итоге подвергают пользователей стрессовым и неловким ситуациям. И, что еще хуже, они не могут внезапно начать демонстрировать контент, который мы считаем абсурдным, неэтичным и даже угрожающим.
Это происходит из-за резких скачков поведения такого типа систем, характеризуемых кривыми известных статистических функций. Например, кривая «S» имеет очень низкую скорость изменения у основания и наверху и очень высокую в середине и может, среди прочего, характеризовать переход с одного уровня на другой. Параметры сложных систем, присущих трансформаторам, часто представляют собой S-образные траектории.
Помимо объяснения легкой привязанности к чат-ботам, эффект Элизы помогает, по крайней мере частично, рационализировать безудержное распространение дезинформации в социальных сетях. Пользователи этих виртуальных пространств легко распространяют на незнакомцев – часто со злыми намерениями – переносные связи, уже созданные с их собственными машинами. Поэтому серьезно то, что поставщики услуг делают вид, что игнорируют это явление и освобождают себя от какой-либо ответственности за него.
Давайте помнить, что изучение тенденций такого типа касается не только ученых-компьютерщиков, осознавших риски цифрового мира. Общительность сетей также вызывает множество исследований на факультетах психологии, социологии, антропологии и политологии в университетах и исследовательских центрах по всему миру. Поэтому уже существует обширная научная литература об отношениях между людьми и их машинами.
Тем не менее, крупные технологические компании продолжают конкурировать за рынок виртуальных помощников, игнорируя неоднократные предупреждения научных кругов и критической журналистики. Другими словами, с их точки зрения, языковые технологии лишь открывают возможности для создания новых рынков и максимизации прибыли.
Плохая грамматика, еще худшая прагматика
Вышеупомянутое, должно быть, ясно дало понять, что владельцы чат-ботов не просто стремятся улучшить поисковые системы в Интернете. Они хотят создать говорящих роботов, которые окончательно завоевывают пользователей и контролируют их жизнь, чтобы формировать их потребности и потребительские привычки. Очевидно, они полностью осознают очарование, которое роботы оказывают на человечество – от их зарождения в средние века до сегодняшних кинематографических франшиз, включая гениальные автоматы XNUMX и XNUMX веков.
Колеблясь между недоверием и привязанностью, пользователи рассматривают эти устройства как доступных слуг, готовых помочь им в физически или умственно трудных или утомительных задачах. Уже доступные виртуальные помощники, такие как Siri от Apple или Alexa от Amazon, исследуют простейшие аспекты этого спроса, который, вероятно, будет расти и усложняться в ближайшем будущем.
Таким образом, надзорный капитализм прибегает к естественному языку, чтобы «утешить» людей от одиночества и беспомощности, которые он сам сеет – несмотря на неоднократные предупреждения ученых из многих областей, включая PLN.[XVII]. В любом случае, недавние достижения в его разговорных навыках уже завоевали аудиторию на севере планеты. Они также продвигаются вперед на глобальном юге, особенно среди среднего класса, что, по сути, способствует усилению неравенства.
Способные принимать диктовки и контролировать повестку дня, разговоры, почту, телефонные звонки, умный дом и т. д., виртуальные помощники привлекают потребителей, которые через них реализуют свое желание иметь личного секретаря, которому они могут передавать не только задачи, но и привязанности. . Поскольку технология GML открывает путь к новым формам диалога, основанным на сложных динамических системах, нынешние «Элизы» склонны совершать спонтанные прыжки, будучи способными приобретать новые навыки, которые генерируют все менее предсказуемые – и, возможно, даже опасные – высказывания.
В любом случае, остановить заполонившие Интернет манипуляции, основанные на эффекте Элизы, стало невозможно. Как понял Йозеф Вайценбаум, это глобальное массовое явление. Это делает необходимым уточнить, что эта манипуляция основана на ложных предпосылках о человеческом интеллекте и естественном языке. Эта ясность необходима для того, чтобы критическое мышление могло сосредоточиться на возможных стратегиях противостояния политической доктрине, которая естественным образом включает в себя такие предпосылки.
Одно слово суммирует то, что общего между концепцией языка и концепцией интеллекта, принятой интернет-платформами, а именно: механизм, то есть философская доктрина о том, что природа управляется механической причинностью, которая всегда линейна и детерминирована. История показывает, что этот механизм легко ассоциируется с авторитарными политическими взглядами и имеет особое сходство с фашизмом.
Механистическая концепция естественного языка, типичная для американской версии структурализма, понимает грамматику как набор правил последовательности слов. Его аналог в психологии – бихевиоризм – еще более упрощен и реакционен: он рассматривает человеческий разум как последовательность атомарных содержаний, возникающих из впечатлений, поступающих извне.
Согласно версии бихевиоризма, сформулированной американским психологом Б. Ф. Скиннером, у нас даже нет разума; нас движет только фиксированное и последовательное поведение благодаря форме обусловленности, называемой оперантом. Он состоит в поощрении случайного поведения с целью его кумулятивного формирования. Так, например, если голубь шевелит крылом, ногой или клювом, предлагая танцевать, дрессировщик вознаграждает его порцией еды. Мало-помалу эти повторяющиеся подкрепления заставляют его выполнять всевозможные пируэты.[XVIII]
В 1950-е годы молодой Ноам Хомский прославился критикой бихевиоризма и осуждением его связи с фашизмом. Возмущен механистическими тезисами о естественном языке, изложенными Скиннером в книге. Вербальное поведение, представил ему разгромный обзор.[XIX] Это заключалось в убедительной демонстрации того, что слова любого языка организованы иерархическим и прерывистым образом, что противоречит последовательным правилам грамматик с конечным состоянием, которые являются формальным коррелятом оперантного обусловливания.
Вот почему знаменитый лингвист и его ученики нападают на «великие языковые модели», настаивая с таким же пылом, как и Вейценбаум, что они являются не чем иным, как симуляциями. С этой целью они подчеркивают свои трудности с синтаксически-семантическими разрывами, например, между глаголом «говорить о» и его объектом «человекв предложении, которое смутило GPT-чат о Bard.
Однако синтаксис и семантика — не единственные недостатки этих моделей. Еще одна неудача с важнейшим аспектом естественных языков касается прагматики, включающей лингвистический и ситуативный контекст.
Напомним, кстати, что дейксис — это аспект естественного языка, наиболее зависимый от ситуативного контекста. Все слова, которые указывают на время и/или место произнесения и/или утверждения, можно интерпретировать только через живой или воображаемый контекст. Возьмем, к примеру, личные местоимения.
Двусмысленность фразы «Она сказала, что берет ее», конечно, неуместна для письменной речи, но совершенно естественна для разговорной речи, контекст которой включает жесты, взгляды, интонации и голосовые качества. Например, если речь идет о том, кто берет «ее», существует более одного способа обозначить упомянутую женщину. Она может быть сореферентом к первому «она», означающему «сама», или другому слову. На инаковость обычно указывает кивок головы или простой взгляд. Третья «она», очевидно, может быть человеком или вещью.
Эти упоминания могут быть и анафорическими, то есть те же роли могут быть отведены уже упомянутым людям или вещам. Кроме того, глагол «левар» может иметь и другое значение: например, на чемпионате «она берет ее» может относиться к спортсмену (или команде с женским именем), являющемуся фаворитом на победу в кубке.
Давайте теперь рассмотрим анализ этого предложения, проведенный Bard. Любопытно, что он указывает на двойственность значений, но иллюстрирует ее примерами, не различающими их.
«Фраза «Она сказала, что берет ее» имеет два возможных значения, в зависимости от интерпретации местоимения «она». В первом смысле оба местоимения относятся к одному и тому же лицу. В данном случае фраза означает, что женщина сказала, что сама возьмет другую женщину. Например, женщина может сказать подруге: Я же говорила, что сведу тебя в кино.
Во втором смысле два местоимения «она» относятся к разным людям. В данном случае фраза означает, что женщина сказала, что возьмет другую женщину. Например, мать может сказать дочери: Я сказала, что отвезу тебя в школу.
Чтобы определить правильное значение фразы, необходимо учитывать контекст, в котором она используется. Например, если фраза произнесена в разговоре двух женщин, скорее всего, она имеет первое значение. Однако если эта фраза произнесена в разговоре между женщиной и ребенком, она, скорее всего, будет иметь второй смысл».
Итак, чат-бот продолжает предлагать предложения с одинаковой кореференцией, якобы, чтобы различить два значения. Длинное и подробное объяснение всегда допускает одни и те же ошибки. В конце комичная «вымышленная» часть пытается представить временной промежуток между двумя появлениями слова «она».
Посмотрим: «Кроме того, важно помнить, что фраза «Она сказала, что берет ее» может иметь и третье значение, в котором два местоимения «она» относятся к одному и тому же человеку, но в разные моменты времени. Например, фраза «Она сказала, что отвезет ее в школу» может означать, что женщина сказала, что отвезет ребенка в школу, даже если ребенок — это она сама, будучи взрослой».
И в заключение он снова прибегает к своему клише о прагматике: «В этом случае смысл предложения определяется контекстом и знанием мира говорящим».
Вышеизложенное убедительно подтверждает гипотезу моделирования, что делает неправдоподобным утверждение о том, что чат-бот обладает интеллектом и пониманием естественного языка. С другой стороны, это также показывает, что моделирование редко не может обмануть пользователя: это происходит только тогда, когда отношения между словами нарушают последовательную логику преобразователя, который всегда заключается в предсказании следующего слова.
Учитывая это, мы не можем не задаться вопросом: какова убедительная сила этой логики, учитывая, что она верна в большинстве случаев? Чтобы попытаться ответить на него, давайте рассмотрим еще одно применение преобразователей, в котором успехи перевешивают ошибки. Это средство оценки путем последовательных приближений следующего образца сигнала записи голоса. Эта техника способна изменить голос до такой степени, что он станет более или менее убедительным клоном другого.
Что, если бы у Элизы был знакомый голос?
Несмотря на то, что клонирование голоса уже достаточно развито на севере планеты, оно остается предметом споров из-за его этических последствий. Это технология, которая использует гибкость и вычислительную мощность преобразователей для ответа на следующий вопрос: как воспроизвести заданный голос неограниченным образом, то есть распространить его на высказывания, не записанные говорящим?
Ответ проще, чем кажется. Просто наложите акустические характеристики рассматриваемого голоса на выходные данные системы преобразования текста в речь. Для этого необходимо получить образец целевого голоса хорошего размера и неоднократно сравнивать его с синтетическим голосом. Сначала синтезируются фразы, идентичные существующим, чтобы облегчить моделирование акустических параметров целевого голоса. Синтетический голос затем подвергается множественным сравнениям и модифицируется путем последовательных приближений до тех пор, пока каждый образец не станет оцениваемым по сравнению с предыдущим с незначительной ошибкой. Полученная функция, преобразующая форму одного голоса в другой, называется моделью голоса.
Изменение осуществляется поэтапно. Когда воспринимаемое качество результирующего сигнала становится удовлетворительным, модель готова к применению к новым высказываниям. Затем это повторяется для каждой выборки до тех пор, пока не будет достигнута приемлемая частота ошибок при прогнозировании следующей выборки и так далее. Эти повторяющиеся исправления приводят к сближению тонов и тембров задействованных голосов, чтобы сделать их качества еще более близкими.
Как сообщила международная пресса, уже существуют «клоны», то есть модели голосов бесчисленного множества умерших знаменитостей. Можно, например, применить модель голоса певца к записям одного из его подражателей, чтобы максимизировать естественность имитации и, таким образом, позволить распространить ее на новые песни, в том числе и на те, которые появились после смерти.
Os чехлы Цифровые динамики, как правило, справляются лучше, чем люди, потому что технология прогнозирования и изменения речевого сигнала ослабляет эффект морфологических различий между задействованными голосовыми аппаратами.
Следует отметить, что имитаторы не имеют полного контроля над качеством своего голоса, поскольку вся вокализация подчинена физическим ограничениям тела, которое ее издает. Поэтому эти артисты действуют более или менее карикатурно, обычно подчеркивая наиболее заметные черты имитируемого голоса.
Метод аппроксимации, минимизируя ошибку прогнозирования между последовательными выборками, автоматически корректирует, среди других параметров, те, которые передают физические различия между говорящими или певцами. Применительно к похожим голосам, найденным в полевых базах данных, он позволяет создавать почти идеальные клоны.
С помощью этой технологии, доступной в Интернете для тестирования и/или приобретения, можно выбирать голоса секретарских и/или терапевтических роботов, если они не нарушают авторские права. Фактически, в США уже есть фирмы, которые «воссоздают» умерших близких, чтобы обеспечить заинтересованным сторонам новые взаимодействия с их голосами и изображениями.[Хх] Эти аватары созданы на основе видео и текстов, оставленных отсутствующими. Есть даже шоу, в которых мертвые артисты выступают с живыми коллегами в песенных и танцевальных номерах.[Xxi]
Теперь стоит задуматься о возможных последствиях объединения чат-бота с клонированными голосами и анимированными изображениями. Первое, что бросается в глаза, — это усиление трансферентных отношений пользователей с «очеловеченными» роботами.
Другим очевидным последствием является сложность регулирования. Например, трудно предотвратить сомнительное или даже оскорбительное содержание в материалах дистанционного обучения. Любой может настроить дружелюбного робота для преподавания курса по любому предмету, используя информацию, предоставленную чат-ботом, без какой-либо модерации со стороны профессионала в этой области.
Другой очевидный пример – возможное использование в маркетинге. Помогая создавать «очаровательных» роботов-рекламщиков, предназначенных для рекламы продуктов с привлекательными голосами, написанными чат-ботами, эти инструменты делают практически невозможным определение ложной рекламы. Манипулирование чувствами потребителей – это попытка обмана или нет?
Возможно, прежде чем продолжить, читатель хотел бы сделать паузу и подумать о возможном использовании – хорошем или плохом – этих ресурсов в своей области работы. Вы, вероятно, будете удивлены разнообразием и множественностью возможностей, которые вскоре появятся перед вами.
заключительные мысли
В заключение давайте спросим себя, какой риск может представлять ускоренное развитие этих технологий. Отбросив гипотезу о сверхразуме роботов и их понимании естественного языка, нам больше не нужно бояться, что эти машины превзойдут и, в конечном итоге, уничтожат нас – если только мы необоснованно не приписали им некоторый контроль над вооружениями. Если бы этой ошибки удалось избежать, было бы нам чего бояться?
Очевидный ответ предполагает сокращение рабочих мест. Сегодня он намного превосходит прогнозы начала эры автоматизации. Представьте себе, что может произойти с этого момента, когда виртуальные помощники все чаще заменяют обслуживающего персонала, администраторов и других лиц, ответственных за общение между компаниями и общественностью.
Таким образом, как это уже произошло с онлайн-банками, предприятиями и государственными учреждениями, отсутствие человека, который может понять потребности клиентов, имеет тенденцию все больше ставить под угрозу качество услуг. Таким образом, жалобы вряд ли сработают, поскольку не будет никого, кто сможет их услышать и поставить себя на место заявителя – каким бы приятным ни казался ответственный робот.
Тогда мы будем безжалостно подвергаться тирании онлайн-форм, чтобы получить все, что мы хотим. И именно в этой безграничной бюрократизации, управляемой ничего не понимающими машинами, кроется величайший риск для человечества со стороны языковых технологий: бестелесный, денатурализованный, дегуманизированный принудительный разговор с машинами может в конечном итоге вызвать беспрецедентный шок для коллективного психического здоровья.
Мы не машины, мы не думаем, не действуем и не говорим согласно последовательным законам механики. Но мы можем научиться подражать его логике, чтобы легче получать необходимые нам продукты и услуги.
И, как предсказывал Чарльз Чаплин в Современное время, мы рискуем развить самые разнообразные заблуждения, пока не погрузимся в навязчивый бред – который не то же самое, что поражает агентов фашистских режимов: это малодушный вариант, который заражает всех, кто им подчиняется.
* Элеонора Альбано, профессор на пенсии Института языковых исследований при Юникампе, психолог, лингвист, эссеист; координировал первый бразильский проект по речевым технологиям.
Примечания
[Я] Языковые модели и лингвистические теории за пределами слов. Нат.Мах. Интелл. 5, 677–78 (2023).
[II] Джон Б. Ватсон. Психология с точки зрения бихевиористов. Психологическое обозрение, 20, 158–177.
[III] Дэвид Лайон. Наблюдение и возможности платформ Кембриджский журнал регионов, экономики и общества, Том 16, Выпуск 2, июль 2023 г., страницы 361–365, https://doi.org/10.1093/cjres/rsad006
[IV] Фредерик Елинек, известный чешско-американский исследователь процедур естественного языка и распознавания речи, добился известности в 1985 году, сказав: «Каждый раз, когда я увольняю лингвиста, производительность распознавателя речи возрастает». Это мнение также верно для современных языковых моделей (LLM), которые, по всей видимости, являются в первую очередь артефактами информатики и инженерии. И LLM, и лингвистика занимаются человеческими языками, но неясно, могут ли они принести пользу друг другу и каким образом (перевод автора).
[В] Джош Дзеза. (Не)человеческая армия, питающая ИИ. Другими словами, 29 июня 2023 года.
[VI] Вот наглядный пример:
https://alexandrehefren.wordpress.com/2010/03/14/determinismo-e-gramatica-sintagmatica-gs-parte-1/
[VII] Почему большие языковые модели являются плохой теорией человеческого языкового познания. Ответ Пиандадоси. Биолингвистика, 2023, в печати.
[VIII] Ноам Хомский: Ложное обещание ChatGPT. Пригласили на репетицию. NY Times, 8 марта 2023 г.
[IX] «Как ИИ, я являюсь моделью машинного обучения, обученной на больших объемах текстовых данных, и у меня нет личного опыта или чувств. Я не сознателен, не осознаю себя и не способен к личной перспективе. Я могу предоставить информацию и провести анализ на основе данных, на которых меня обучали, но у меня нет способности формировать личное мнение или убеждения. Хотя я могу понимать и интерпретировать язык, у меня нет того субъективного опыта, который есть у людей». (автоматический перевод Google, проверено автором).
[X] «Трансчеловек» — это гипотетическое человеческое существо с мозговыми имплантатами, которые соединяют его с роботами.
[Xi] «Концепция интеллекта, сознания, чувствительности и способности выносить моральные суждения чат-бота сложна и до сих пор обсуждается экспертами. Единого определения этих терминов не существует, и они часто используются как взаимозаменяемые.
Некоторые эксперты считают, что чат-боты могут быть разумными, но не сознательными или разумными. Они утверждают, что чат-боты — это просто очень сложные алгоритмы, способные обрабатывать информацию и реагировать разумным образом. Однако у них нет такого же уровня сознания или самосознания, как у людей». (автоматический перевод Google, проверено автором)
[XII] «Оба предложения грамматически правильные, но имеют разное значение.
Первое предложение: «Прибыл человек, которого Мэри встретила вчера, а Джон поговорит с Эдом завтра», — более краткое и прямое. Это говорит нам о том, что человек, которого Мэри встретила вчера, — это тот же человек, о котором Джон будет говорить с Эдом завтра.
Второе предложение: «Человек, которого Мэри встретила вчера, прибыл, и завтра Джон расскажет Эду о своей новой идее», более подробное. Это говорит нам о том, что человек, которого Мэри встретила вчера, — это тот же человек, который Джон завтра расскажет Эду о своей новой идее.
Первое предложение лучше, если вы хотите подчеркнуть тот факт, что эти два человека равны. Второе предложение лучше, если вы хотите подчеркнуть тот факт, что Джон расскажет Эду о своей новой идее.
В конечном счете, лучшая фраза зависит от контекста, в котором она используется».
[XIII] Йозеф Вейзембаум. Мощь компьютера и человеческий разум: от суждения к расчету. Нью-Йорк: WF Freeman & Co, 1976.
[XIV]Джозеф Вайценбаум; Гунна Вендт. Острова в киберпотоке: В поисках пристанища разума в запрограммированном обществе. Переводчик: Бенджамин Фашинг-Грей. Нью-Йорк: Litwin Books 2015 [2008].
[XV] Джон Маккарти Неразумная книга. Доступно в:
http://jmc.stanford.edu/artificial-intelligence/reviews/weizenbaum.pdf
[XVI] Дуайт Хайнс. Обзор компьютерной мощи и человеческого разума: от суждения к расчету, Джозеф Вайценбаум, Журнал разума и поведения, Весна 1980, Т. 1, № 1, с. 123-126.
[XVII] В мае прошлого года в прессе появилась новость о том, что Джеффри Хинтон, отец искусственного интеллекта, покинул компанию, потому что сожалел о своем вкладе в эту область. Смотрите это по адресу:
https://www.bbc.com/portuguese/articles/cgr1qr06myzo
[XVIII] Вот Скиннер дрессирует голубей в своей лаборатории: https://www.youtube.com/watch?v=TtfQlkGwE2U
[XIX] Ноам Хомский. Обзор вербального поведения Скиннера. Язык. 1959; 35: 26-58.
[Хх] https://www.hereafter.ai/
[Xxi] https://www.youtube.com/watch?v=Jr8yEgu7sHU&ab_channel=TalentRecap
земля круглая существует благодаря нашим читателям и сторонникам.
Помогите нам сохранить эту идею.
СПОСОБСТВОВАТЬ