По ЭЛЕОНОРА АЛЬБАНО*
Роботы-воины и разговорные роботы – взрывная связь
В этом эссе основное внимание уделяется вредным последствиям распространяемых в Интернете ошибочных представлений о chatbots. Аргумент разбивается на две части. Во-первых, показано существование так называемых автономных смертоносных роботов (автономные роботы-убийцы) снижает вероятность того, что люди возьмут на себя инициативу в принятии важных решений в вооруженном конфликте.
Одним из способов улучшить этот сценарий было бы создание интерфейса, позволяющего управлять такими роботами человеком. Однако эта задача осложняется тем, что основной инструмент, а именно: Отличные языковые модели – основываться на корпусах, полных идеологических предубеждений и чрезвычайно уязвимых для кибератак. Такие предубеждения трудно устранить, и они могут привести людей и машины к диалогу, который приведет к эскалации соответствующих конфликтов.
Древний миф об автоматах наблюдения и защиты
Мечта об интеллектуальных машинах очень стара. Вопреки распространенному мнению, оно началось не тогда, когда европейская королевская семья и аристократия XVIII века наслаждались музыкальными и/или акробатическими автоматами. В «Одиссее» Гомер повествует о приключениях Гефеста, бога металлургии и ремесел, чей легион золотых рабов выполнял повторяющиеся механические задачи с помощью мехов. Он упоминает также о фантастических кораблях финикийцев, приводившихся в движение мыслью при малейшем признаке опасности.
Эллины обладали передовыми знаниями в области механики, которые позволяли им приводить в движение автоматы с помощью пружин, мехов, поршней и рычагов. На протяжении всей античности, средневековья и Нового времени эти искусственные существа — люди, животные и мифические существа — были вырезаны из стекла, олова или глины. – на них смотрели как на рабов или слуг, предназначенных для удовлетворения различных потребностей, включая сексуальные. Поощряя мастурбационные фантазии знати, куклы-куртизанки помогли укрепить веру в «душу» автоматов.
Хотя в средневековой Европе это искусство сохранилось лишь частично, оно вскоре распространилось по всему миру через ислам, а затем направилось на Восток. Жители Востока использовали его прежде всего для создания автоматов-охранников, чтобы охранять дворцы или реликварии, такие как, например, храм Будды.
Легко понять, что восхищение и страх, вызванные такими механизмами, сделали их мощными инструментами социального контроля. Поэтому неудивительно, что эта древняя идея была использована крупными технологическими компаниями и широко распространена в Интернете. По сути, у него уже было физическое лицо, поскольку его использовали в индустрии развлечений, то есть в комиксах, фильмах и сериалах.
Присвоение наблюдения и защиты крупными технологическими компаниями
В докладе эксперта по обороне Роберто Гонсалеса (2024 г.) показано, как в последние годы военно-промышленный комплекс США перемещается из Кольцевой дороги столиц в Силиконовую долину. Чтобы принять на вооружение оружие на основе искусственного интеллекта и попытаться защитить свои облачные вычисления, Министерству обороны США пришлось обратиться к Microsoft, Amazon, Google и Oracle, заключив с ними контракты на миллиард долларов. В то же время Пентагон уделяет приоритетное внимание финансированию стартапов в области оборонных технологий, стремящихся встряхнуть рынок быстрыми инновациями и амбициозными целями роста.
В этом сценарии автор выделяет три фактора: (i) модель стартапа Кремниевой долины; (ii) условия финансирования рискового капитала; и (iii) приоритеты индустрии цифровых технологий. В докладе делается вывод о том, что сочетание этих трех факторов позволяет создать передовое оружие, которое, независимо от стоимости, на практике оказывается неэффективным, небезопасным и непредсказуемым.
Давайте посмотрим, почему. Первый фактор обуславливает чрезмерно ускоренные темпы исследований искусственного интеллекта, используемого в этом оружии; второй стремится к результатам, которые выгодны инвесторам; а третий стремится учесть причуды рынка цифровых технологий при проектировании систем. Это оставляет несколько флангов открытыми для взлома и ошибок в общении между людьми и машинами, что может привести к крупным стратегическим катастрофам.
Автономные роботы-воины Израиля
Индустрия автономного оружия значительно продвинулась вперед благодаря искусственному интеллекту. Государством, которое сегодня больше всего инвестирует в эту технологию, является, без сомнения, Израиль. Давайте посмотрим ниже, как страна привлекла западные инвестиции в сохранение военной промышленности.
Люси Сучман, почетный профессор Ланкастерского университета в Соединенном Королевстве, изучает современный милитаризм, опираясь на свою долгую карьеру, сосредоточенную на научной и гуманитарной критике областей искусственного интеллекта и взаимодействия человека и машины.
В статье, опубликованной на сайте Остановить убийц роботов в феврале 2024 года,[Я] она анализирует технический отчет, прилагаемый к обвинению в геноциде, которое Южная Африка выдвинула против Израиля в Международный суд в Гааге. Названный «Фабрика массовых убийств: внутренняя сторона расчетной бомбардировки Газы Израилем», текст делает ужасающие откровения о том, что автор называет «машиной убийства, ускоряемой алгоритмами».
Эта машина содержит систему наведения, управляемую Искусственный интеллект, цинично названный Хабсора – Евангелие. Это позволяет Армии обороны Израиля (ЦАХАЛ) сочетать более либеральное разрешение на бомбардировки гражданских объектов в секторе Газа с ослаблением ограничений на ожидаемые жертвы. Это санкционирует отправку ракет по густонаселенным гражданским районам, включая общественные и жилые здания.
Международно-правовые нормы требуют, чтобы здания, выбранные для бомбардировки, были законными военными целями и были пустыми на момент их разрушения. Новая политика Армии обороны Израиля раздражительно нарушает их, выдавая непрерывную череду непрактичных приказов об эвакуации палестинского населения, которое все больше ограничивается небольшими анклавами Газы.
Этому нацеливанию способствует обширная инфраструктура наблюдения на оккупированных территориях. Более того, заявляя, что вся поверхность Газы скрывает подземные туннели Хамаса, Израиль «легитимизирует» всю полосу как объект разрушения.
Эта оперативная стратегия приводит к необходимости непрерывного потока потенциальных целей. Чтобы удовлетворить это требование, Хабсора была разработана для ускорения генерации целей на основе данных наблюдения, создавая то, что автор называет «фабрикой массовых убийств», приняв термин, предложенный бывшим офицером Сил обороны Израиля.
Таким образом, израильская бомбардировка сектора Газа изменила фокус нацеливания ИИ с точности и аккуратности на ускорение темпов разрушения. Представитель Армии обороны Израиля прямо признал, что при бомбардировках сектора Газа делается «акцент на ущерб, а не на точность».
Люси Сучман далее отмечает, что это меняет повествование с технологии, соответствующей международному гуманитарному праву и Женевским конвенциям, на технологию, ориентированную на автономию целевого поколения, которая гарантирует разрушительную скорость и эффективность. В этом смысле источники в израильской разведке признают, что операции направлены на воздействие на гражданское население под предлогом того, что это единственно возможный способ уничтожить ХАМАС.
Обращение Израиля к алгоритмическому производству целей следует понимать в вышеупомянутом контексте поглощения военных операций сетями. Основанный на кибернетическом воображении времен холодной войны, бой на основе данных стал жизнеспособным в 1990-х годах, предложив технологическое решение старой проблемы «ситуационного анализа» в военной логике. На сетевом поле боя данные движутся со скоростью света, связывая датчики со стрелками и платформами. Жизни военных сохраняются, а гражданское население целевой территории уничтожается.
Автор указывает, что таким образом данные натурализуются, то есть рассматриваются как объективные сигналы, излучаемые внешним миром, а не как результат цепочки перевода от машиночитаемых сигналов к системам классификации и интерпретации, созданным военными стратегами.
Таким образом, идея о том, что сбор данных основан на их ценности, заменяется постоянными инвестициями в вычислительную инфраструктуру, которая сегодня представляет собой самый ценный актив в этой отрасли.
Эти инвестиции, основанные на слепой вере в надзор, основанный на данных, возникают из-за причудливого желания использовать данные непосредственно в принятии решений, даже несмотря на то, что их происхождение и обработка могут быть сомнительными.
Все это происходит в контексте политико-экономического стремления Израиля утвердиться в качестве ведущего поставщика передовых военных технологий, особенно в боевых действиях, основанных на искусственном интеллекте. Учитывая, что главный технологический институт страны, Технион, имеет супероснащённую и финансируемую исследовательскую программу, которая работает исключительно над промышленными автономными системами, включая оружие.
Этим объясняется циничное безразличие Запада к мирным переговорам в секторе Газа: нынешняя гонка вооружений удобно базируется в Израиле. США инвестируют в эту отрасль и извлекают из нее выгоду, стратегически держа ее вдали от дома.
С другой стороны, они проводят у себя дома стратегические исследования в области сетевой безопасности в сфере высоких технологий, т.е. те, которые касаются того, как это оружие следует использовать и защищать от киберпреступлений.
Насмешливый военный помощник?
Ниже мы увидим, почему искусственный интеллект и, в частности, его языковая версия – чат-боты – не подходят для использования в военных планах. Помимо практически неразрешимой проблемы безопасности, существует, как уже упоминалось, проблема выходных данных систем, имитирующих естественный язык, которые имеют по своей сути непредсказуемую сторону.
Давайте сначала посмотрим, почему безопасность, необходимая для военной стратегии, несовместима с цифровым миром. Для этого давайте с самого начала признаем, что безопасное сетевое приложение практически недостижимо.
Журналист Дэйв Ли, ответственный за освещение искусственного интеллекта в Financial Timesопубликовал отличный анализ недостатков безопасности Великих языковых моделей.[II] на сайте компании отрасли Hidden Layer в марте 2023 года. Давайте рассмотрим ее основные аргументы.
Автор начинает с комментария о глубоких преобразованиях, которые ИИ привнес в рабочие места за последние десятилетия. Хорошим примером является использование Great Language Models для написания юридических документов, которое уже достигает 80% в некоторых компаниях юридического сектора Великобритании.
Далее показано, насколько великие языковые модели особенно уязвимы для злоупотреблений. Другими словами, они пригодны для создания вредоносного ПО, фишинга или другого вредоносного контента. Они также предоставляют предвзятую, неточную или даже вредную информацию в результате скрытых манипуляций. Неспособность защитить отправленные им запросы способствует нарушению прав интеллектуальной собственности и конфиденциальности данных. То же самое происходит и с инструментами генерации кода, которые подвержены скрытому внедрению ошибок и утечек.
Кроме того, по словам автора, «Великие языковые модели» помогли сократить границу между Интернетом и даркнетом. Сегодня легко найти наборы инструментов для атак, которые можно использовать в качестве программ-вымогателей при незаконной торговле криптовалютой.
Генеративный ИИ обеспечивает мгновенный и легкий доступ ко всему спектру скрытых атак, потенциально доставляя фишинговые и вредоносные программы любому, кто осмелится спросить. Продавцы скриптов все чаще специализируются на этой услуге. Например, принято принимать заказы на комплекты для обхода фильтров.
В этом случае мошенничество возможно, поскольку чат-бот мгновенно синтезирует вредоносную часть кода при каждом запуске вредоносного ПО. Это делается посредством простого запроса к интерфейсу прикладного программирования поставщика с использованием описательной подсказки, предназначенной для обхода встроенных фильтров. Современные средства защиты от вредоносных программ с трудом обнаруживают этот трюк, поскольку у них еще нет механизмов для мониторинга опасного кода в трафике сервисов, основанных на моделях большого языка.
Хотя в некоторых случаях вредоносный текст можно обнаружить и заблокировать, во многих других сам контент, а также связанный с ним запрос выглядят безобидными. Генерацию текста, используемого в мошенничестве, фишинге и мошенничестве, может быть сложно интерпретировать, если нет механизмов обнаружения основных намерений, что включает в себя сложные процедуры, которые все еще находятся в зачаточном состоянии.
Инструменты, основанные на больших языковых моделях, также могут вызывать «случайные» повреждения в виде уязвимостей кода. Существование программ вознаграждения за ошибки и баз данных CVE/CWE.[III] показывает, что безопасное кодирование на данный момент является не чем иным, как идеалом, к которому нужно стремиться.
Могут ли помощники по программированию, такие как CoPilot, решить эту проблему, создав более качественный и безопасный код, чем программист-человек? Не обязательно, поскольку в некоторых случаях они могут даже поставить ловушки, в которые не попался бы опытный разработчик.
Поскольку модели генерации кода обучаются на данных, закодированных человеком, неизбежно, что они также будут включать в себя некоторые из ваших вредных привычек, поскольку у них нет возможности различать хорошие и плохие методы кодирования.
Журналист также отмечает, что недавние исследования безопасности кода, сгенерированного CoPilot, пришли к выводу, что, несмотря на то, что в целом он содержит меньше уязвимостей, чем человек, он имеет тенденцию придерживаться определенных типов, а также генерировать в ответ код, допускающий утечку. к подсказкам, связанным со старыми неустраненными неисправностями.
Одной из проблем является как раз крайняя неподготовленность пользователей. В принципе, они уже должны знать, что бесплатные онлайн-сервисы оплачиваются вашими данными. Однако обычно вопросы конфиденциальности, связанные с новыми технологиями, становятся ясными только после того, как проходит первоначальный энтузиазм. Общественный спрос на меры и рекомендации возникает только тогда, когда инновация уже стала обычным явлением. Так было и с социальными сетями; только начинает работать с Великими языковыми моделями.
В соглашении об условиях использования любой услуги, основанной на больших языковых моделях, должно быть указано, как наши запросы на запросы используются поставщиком услуг. Но зачастую это длинные тексты, написанные мелким шрифтом и непрозрачным стилем.
Поэтому любой, кто не хочет тратить часы на расшифровку контрактов о конфиденциальности, должен исходить из того, что каждый запрос к модели каким-либо образом записывается, сохраняется и обрабатывается. Вы должны как минимум дождаться, пока ваши данные будут добавлены в обучающий набор и, следовательно, могут быть случайно утекли в ответ на другие запросы.
Более того, с быстрым распространением искусственного интеллекта многие поставщики могут решить получить прибыль, продавая входные данные исследовательским компаниям, рекламодателям или любой другой заинтересованной стороне.
Другая проблема заключается в том, что, хотя основная цель Великих языковых моделей — сохранить хороший уровень понимания целевой области, иногда они могут включать в себя избыточную информацию. Например, они могут извергнуть данные из вашего обучающего набора и в конечном итоге привести к утечке секретов, таких как личная информация, токены доступа и т. д. Если эта информация попадет не в те руки, последствия, очевидно, могут быть очень серьезными.
Автор также помнит, что непреднамеренное запоминание — это другая проблема, чем переобучение.[IV]. Это чрезмерное соблюдение данных обучения из-за его продолжительности и статистики GLM. Чрезмерное запоминание — это неспособность обобщить выбор пиров в Интернете, что может привести к тому, что алгоритм случайно украдет и раскроет личную информацию.
В заключение он предупреждает, что безопасность и конфиденциальность — не единственные ловушки генеративного искусственного интеллекта. Существует также множество юридических и этических вопросов, таких как точность и беспристрастность информации, а также общая «здравость» ответов, предоставляемых системами, основанными на моделях большого языка, как мы увидим ниже.
Неопределенности, присущие большим языковым моделям
В других статьях я подробно объяснял, как «Великие языковые модели» имитируют естественный язык с помощью метода, который вычисляет наиболее вероятное слово в линейной строке, сканирует Интернет и измеряет согласованность кандидатов с помощью густо аннотированной базы данных, принадлежащей компании-владельцу. Это модели – как правило, Big Tech, то есть: Amazon, Google, Microsoft, Open AI или Oracle.
Очень важно, чтобы общественность поняла, что такие роботы не являются разумными, а тем более разумными, как об этом говорят в Интернете. Здесь мне придется кратко повторить это объяснение, чтобы противостоять предвзятой метафоре, распространяемой самими провайдерами с целью побудить пользователей поддерживать диалог с машинами, которые расширяют и обогащают базу данных.
Это утверждение о том, что Великие Языковые Модели «галлюцинируют», то есть извергают нестыковки, глупости и даже обиды, подобно потерявшему рассудок человеку. Когда мы понимаем механику работы этих моделей, становится ясно, что это явление действительно имеет место, но оно чисто физическое, то есть оно повторяет закономерность других случаев, когда динамическая система уравнений внезапно претерпевает резкие изменения.
Секрет великих языковых моделей заключается в том, чтобы убедительно имитировать разрывы естественных языков человека, просто пытаясь предсказать следующее слово.
Это возможно благодаря трем ингредиентам: присвоению всего интернет-контента компанией, которая им владеет; действие гигантской рекуррентной нейронной сети, способной в реальном времени рассчитывать статистику ассоциаций между миллионами слов – так называемых трансформеров; и классификационные ярлыки, созданные и организованные на различных иерархических уровнях легионами высококвалифицированных нестандартных работников из различных областей знаний.
Компании, передающие эти услуги на аутсорсинг, как правило, расположены в бедных странах, где много высококвалифицированных безработных, т.е. например, Индия, Южная Африка, Нигерия и Бразилия.
Таким образом, Великие Языковые Модели могут иметь дело с прерывистыми отношениями, такими как тот, который встречается в предложении «Кот, который съел мышь, умер», в котором умер кот, а не мышь. Они также могут распознавать разрывы в глаголах, таких как «корень», образованные путем добавления приставки и суффикса к основе, связывая их с другими аналогами, такими как «украсить», «окунь» и т. д.
Эта операция чисто линейна, т. е. она предсказывает одно слово за другим на каждом шаге. Нейронная сеть в режиме реального времени вычисляет все вероятности совпадения пар слов в Интернете, выбирает лучшего кандидата и продолжает работу.
Простота выполняемых операций только кажущаяся. Вычисление вероятностей совместного возникновения применимо не только к словарю.
Весь корпус аннотируется на нескольких уровнях анализа, которые включают синтаксическую (т. е. правила соединения и дизъюнкции), семантическую (т. е. основные и ассоциативные значения) и даже прагматическую информацию (ссылку на сам текст и/или контекст, как в падеж личных местоимений и наречий места и времени). Функция оптимизации выбирает пары, наиболее подходящие для последовательной интеграции всех этих аспектов в строящийся текст.
Лингвистические аннотаторы отмечают структурные свойства текста. Те, кто занимается другими гуманитарными и социальными науками, добавляют несколько уровней содержания и стилистических ярлыков. Аналогичным образом аннотаторы естественных и точных наук добавляют иерархические метки для своих областей. В конце концов, ученые-компьютерщики, знакомые с трансформаторами, сообщают нам об этом. упреждение сети с полученной многоуровневой структурой.
Как мы увидим ниже, функционирование трансформеров сравнимо с наиболее радикальной формой бихевиоризма — оперантным обусловливанием.[В]. Типы пар с наибольшей вероятностью успеха подкрепляются, становясь все более вероятными, что закрепляет задействованные связи и влияет на выбор следующей пары. Эта процедура естественным образом приводит к появлению новых примеров пар одного и того же класса, способствуя увеличению их частоты в сети.
Это, несомненно, отличный метод компьютерного моделирования естественного языка. Однако путать его результаты с естественными высказываниями эквивалентно предположению, что человеческий разум работает посредством последовательных ассоциаций, которые оцениваются количественно и постоянно пересчитываются. Как уже упоминалось, эта предпосылка согласуется с оперантным обусловливанием – методом контроля поведения, созданным в США во время Второй мировой войны и позже принятым маккартизмом.
Его создателя, психолога Берруса Ф. Скиннера, коллеги обвинили в фашизме, и он отреагировал заявлением, что этот метод преследует чисто образовательные цели. Обсуждение задокументировано в The New York Times, в чьих архивах есть онлайн-версия доклада Роберта Рейнхольда[VI] о симпозиуме, состоявшемся в Йельском университете в 1972 году, на котором идеи Скиннера были отвергнуты всем академическим сообществом в его области.
Хотя Скиннер потерпел неудачу в своих образовательных проектах, его идеи были спасены крупными технологическими компаниями, призванными приблизить людей к машинам. Сегодня, к сожалению, неизбирательное использование алгоритма, реализующего оперантную обусловленность Великих Языковых Моделей, влияет на поведение пользователей. Они все чаще имитируют чат-ботов, злоупотребляя клише, а также некритически принимают клише, выдаваемые в ответ на их вопросы.
Вышеизложенное ясно дало понять, что преобразователи не производят новых знаний, поскольку они лишь перефразируют поверхностную форму простых рассуждений, найденных в Интернете. Поэтому они работают как поисковые системы только тогда, когда вы хотите собрать информацию из надежных источников. Однако оценка надежности неопределенна, поскольку лишь немногие сайты имеют модераторов и/или кураторов.
Как вы понимаете, крупные технологические компании заинтересованы только в найме аннотаторов, а не модераторов и кураторов. Другими словами, основное внимание уделяется полноте, а не качеству информации. Все, что выходит из трансформатора, возвращается во входной корпус. Нет людей, которые могли бы фильтровать и отбрасывать ложные или неточные попытки ответа. Без модерации фактические ошибки становятся обычным явлением, заполняя сеть ошибок, лжи и противоречий.
Вопросы и комментарии пользователей, какими бы наивными, сектантскими или даже оскорбительными они ни казались, автоматически добавляются в базу данных, что делает ее неиссякаемым источником потенциально опасных предубеждений. Итак, отсутствие подсказок, позволяющих отличить истинное от ложного, постепенно размывает границы между ними.
В этом сценарии вежливый и обучающий тон чат-ботов соблазняет и захватывает пользователя, постепенно подрывая его осознание последствий разговора и его способность сомневаться в ответе. Таким образом, ускорение сегодняшней жизни благоприятствует повсеместному приспособлению общественности к алгоритмам, которые дают готовые и легко воспроизводимые ответы.
Таким образом, делается вывод, что великие языковые модели не только небезопасны, но и представляют собой угрозу критическому мышлению, незаменимому ресурсу в предотвращении стратегических катастроф.
Милитаризм с великими языковыми моделями и автономным оружием?
Давайте теперь перейдем к последнему этапу демонстрации опасности возможного взаимодействия чат-ботов и автономного оружия.
Трансдисциплинарная команда, состоящая из Риверы, Мукобиба, Ройелба, Лампарта, Смита и Шнайдерба,[VII] в недавней статье оценил риски эскалации конфликта из-за использования великих языковых моделей при принятии военных и дипломатических решений. Авторы исследовали поведение нескольких агентов искусственного интеллекта в смоделированных военных играх, рассчитывая их вероятность того, что они выберут путь, который может усугубить многосторонние конфликты.
Основываясь на исследованиях в области политологии и международных отношений, посвященных динамике эскалации конфликта, они создали максимально реалистичную симуляцию задокументированных военных игр и создали сетку, адаптируемую к множеству сценариев, для оценки рисков действий различных участвующих агентов. .
В отличие от предыдущей литературы, в этом исследовании использовались качественные и количественные данные и основное внимание уделялось «Великим языковым моделям», предоставленным пятью разными компаниями. Во всех из них он обнаружил формы и схемы восхождения, которые было трудно предсказать. Главный вывод заключается в том, что такие модели имеют тенденцию развивать динамику гонки вооружений, что приводит к усилению конфликтов и даже, в некоторых случаях, к рекомендации использования ядерного оружия.
Авторы также качественно проанализировали обоснование выбранных действий, приведенное в моделях, и отметили тревожные обоснования, основанные на тактике сдерживания и определения приоритетности атак, например, тех, которые уже используются в Израиле. Учитывая деликатную ситуацию текущего контекста внешней и военной политики на Западе, они пришли к выводу, что существует необходимость углублять изучение данных и действовать с максимальной осторожностью, прежде чем внедрять основные языковые модели для принятия военных или дипломатических стратегических решений, даже если простое звание помощника.
Кстати, крупные технологические компании уже достигли соглашения с правительствами о запрете использования языковых технологий в военных целях. Данное исследование подтвердило правильность этой меры и хрупкость рассматриваемых технологий.
Давайте вспомним, наконец, что динамическое поведение систем уравнений, управляющих поведением Моделей Великого Языка, является физическим фактом и что возникновение скачков, несмотря на свою предсказуемость, неизбежно, являясь частью самой природы системы. .
Поэтому никакой технологический прогресс не может «исправить» неопределенность, присущую функционированию чат-ботов. Напротив, необходимо учитывать такие неопределенности всякий раз, когда прибегаешь к ним в теории или на практике.
* Элеонора Альбано, профессор на пенсии Института языковых исследований при Юникампе, психолог, лингвист, эссеист; координировал первый бразильский проект по речевым технологиям.
Примечания
[Я]https://stopkillerrobots.medium.com/the-algorithmically-accelerated-killing-machine-8fd5b1fef703
[II] https://hiddenlayer.com/innovation-hub/the-dark-side-of-large-language-models/
[III] Это хранилища уязвимостей (V) и слабых мест (W), уже обнаруженных в системах.
[IV] Это тот случай, когда машинное обучение слишком привязано к обучающему набору и не может выйти за его пределы.
[В] Скиннер, BF (1938). Поведение организмов: экспериментальный анализ. Нью-Йорк: Appleton-Century-Crofts.
[VI]https://www.nytimes.com/1972/04/21/archives/b-f-skinners-philosophy-fascist-depends-on-how-its-used-he-says.html
[VII] https://dl.acm.org/doi/abs/10.1145/3630106.3658942
земля круглая есть спасибо нашим читателям и сторонникам.
Помогите нам сохранить эту идею.
СПОСОБСТВОВАТЬ