болтливый алгоритм

Изображение: Луис Гомеш
WhatsApp
Facebook
Twitter
Instagram
Telegram

По ЭУДЖЕНИО БУЧЧИ

Машина предлагает нам сыграть второстепенные роли в нашей собственной истории. И говорит сквозь силиконовые локти

Да, вы знаете, что такое ChatGPT. Конечно, вы знаете: вы читали об этом, видели в новостях и, возможно, даже играли с этим. О Chatbot разработан Открытый институт искусственного интеллекта взорвался в предпочтениях взаимосвязанных масс. Версия 3,5, которая работает путем одновременного объединения 175 миллиардов параметров, уже достигла 120 миллионов пользователей. Версия 4,0, кстати, будет иметь 1 триллион параметров.

Люди не говорят ни о чем другом. Машины тоже: они ни о чем другом не говорят. Правильно: теперь машины говорят и пишут на абстрактные темы, далеко выходящие за рамки «сверните на второй выход слева» или «пожалуйста, держитесь на линии, ваш звонок очень важен для нас». Компьютеры и сотовые телефоны пропагандировались как говорящие существа, причем уже с появлением мыслящих существ. Парень заходит туда и спрашивает: «Какой стих из Бокажа я могу процитировать своей девушке сегодня вечером за ужином?» Компания отвечает в письменном виде. «Как приготовить апельсиновый пирог?» Он учит за секунду. «В чем разница между эмиром и халифом?» «Кем был Эсхил?» «Как обратить вспять глобальное потепление?» «Владимира Путина тронули те печальные страсти, о которых говорил Спиноза?» «Станет ли когда-нибудь тригонометрия ненужной в геометрических расчетах?»

В храмах знаний царит смятение. Мы уже знаем, что у кибер-оракула есть вызывающие привыкание аспекты, но именно порочные аспекты больше всего волнуют академическое сообщество. Студенты обращаются к нему, чтобы написать домашнее задание. Как учитель? Как узнать, действительно ли этот текст принадлежит человеку, который его подписал? Методы школьной оценки под вопросом. Плагиат изменил уровни. Авторское право на роботов стоит на повестке дня.

Классные тесты, основанные на старых технологиях, основанных на ручке и бумаге, возрождаются. Самые престижные научные журналы мира спешат объявить срочные редакционные стандарты: они не принимают бумага написаны искусственным интеллектом (ИИ), хотя они признаются, что используют печально известный искусственный интеллект для лучшего распространения «контента» в сетях.

Отныне все будет по-другому. «То, что грядет, — это поток инноваций, и ничто в прошлом не сравнится с тем, что вот-вот произойдет», — предупредил на семинаре профессор Глауко Гарбикс с факультета социологии USP. ChatGPT: потенциал, ограничения и последствия для университета, который состоялся в Институте перспективных исследований USP в Сан-Паулу в прошлый вторник. Один из самых влиятельных бразильских исследователей искусственного интеллекта Глауко Гарбикс говорит, что разрабатываемые технологии не являются нейтральными «инструментами»: «это не просто отвертка».

Короче говоря: великие изменения в том, как люди относятся друг к другу, а также к знаниям, работе, потреблению и культуре, уже начались. Машины еще не начали учиться быть людьми, но они уже начали вести себя как субъекты языка.

Проблемы на виду. Если вы спросите психоаналитиков, что отличает человека от других животных, они скажут, что только люди являются субъектами языка, в отличие от червей и калькуляторов. Антрополог набросает ответ в том же духе. Человек-животное отличается тем, что оно говорит и, говоря, активирует абстрактные представления и связывает суждения, руководствуясь моральными ценностями.

Теперь ChatGPT делает все это — или, по крайней мере, очень хорошо это имитирует. Не то чтобы он человек, дело не в этом, но различия между человеком и нечеловеком становятся все более размытыми. Если машины — это языковые существа (и если в США уже есть люди, использующие диалоговые приложения для проведения психологической терапии), что же в конце концов отделяет человека из плоти и крови от болтливого алгоритма?

Есть те, кто избегает дебатов и прибегает к техническим обвинениям. ChatGPT ошибается, говорят они, с облегчением. На самом деле, по мнению программистов и компьютерщиков, устройство впадает в галлюцинации: совершает ошибки, вводит в заблуждение, лжет – и все это, не краснея.

Но является ли это критерием того, что организм не является человеческим? Совершать ошибки бесчеловечно? С каких пор? На днях в ответе, данному аспиранту USP, цифровой гений произнес «к Богу», с сумасшествием и всем остальным. Что может быть человечнее? Мы имеем дело с машинным Роландо Леро, персонажем, имеющим смелость поддерживать очевидные необоснованные высказывания. И пишет «к Богу» критической фразой.

Другие говорят, что Чат не должен нас беспокоить, потому что на самом деле он не разумен, а просто притворяется таковым. Для них артефакт производит впечатление логической последовательности, но ничего не думает. Возможно, они правы. Однако в мире полно людей, которые могут похвастаться интеллектом, которого у них нет. Точно так же, как GPT. Они менее человечны?

И мы такие. С алгоритмами, которые не только пишут (и даже читают), но и говорят (и, что еще хуже, слушают), наша ненужность становится еще более неприкрытой. Машина предлагает нам сыграть второстепенные роли в нашей собственной истории. И он говорит через свои силиконовые локти.

* Юджин Буччи Он профессор Школы коммуникаций и искусств USP. Автор, среди прочих книг, Сверхиндустрия воображаемого (аутентичный).

Первоначально опубликовано в газете Штат Сан-Паулу.


Сайт A Terra é Redonda существует благодаря нашим читателям и сторонникам.
Помогите нам сохранить эту идею.
Нажмите здесь и узнайте, как

Посмотреть все статьи автора

10 САМЫХ ПРОЧИТАННЫХ ЗА ПОСЛЕДНИЕ 7 ДНЕЙ

Посмотреть все статьи автора

ПОИСК

Поиск

ТЕМЫ

НОВЫЕ ПУБЛИКАЦИИ

Подпишитесь на нашу рассылку!
Получить обзор статей

прямо на вашу электронную почту!