20.02.23 14:47

Новости

Автор:

Администратор

10 причин беспокоиться о генеративном искусственном интеллекте

 После десятилетий спекуляций реальный искусственный интеллект наконец-то достиг переломного момента. Теперь, когда мы знаем, на что способны модели искусственного интеллекта, такие как ChatGPT и...

После десятилетий спекуляций реальный искусственный интеллект наконец-то достиг переломного момента. Теперь, когда мы знаем, на что способны модели искусственного интеллекта, такие как ChatGPT и DALL-E, стоит ли нам беспокоиться?


Автор: Питер Уэйнер, автор InfoWorld 

 

Генеративные модели искусственного интеллекта, такие как ChatGPT, настолько хороши, что некоторые теперь утверждают, что искусственный интеллект не только не уступает людям, но и часто умнее. Он создает прекрасные произведения искусства в головокружительном разнообразии стилей. Он штампует тексты, полные богатых деталей, идей и знаний. Сгенерированные артефакты настолько разнообразны, настолько кажутся уникальными, что трудно поверить, что они были созданы машиной. Мы только начинаем открывать для себя все, на что способен генеративный искусственный интеллект.

 

Некоторым нравится думать, что эти новые модели искусственного интеллекта наконец-то перешагнули порог теста Тьюринга. Другие считают, что порог был преодолен не мягко, а разнесен вдребезги. Это искусство настолько хорошо, что, наверняка еще одна группа людей уже приближается к черте безработицы.

 

Но как только чувство удивления исчезает, пропадает и звездная мощь генеративного искусственного интеллекта. Некоторые развлекаются тем, что задают вопросы таким образом, что интеллектуальные машины выдают что-то бессмысленное или неправильное. Некоторые используют старые логические бомбы, популярные на уроках рисования в начальной школе, например, просят нарисовать ночное солнце или белого медведя во время снежной бури. Другие выдают странные запросы, которые демонстрируют пределы понимания контекста, также известного как здравый смысл. Те, кто делает так, могут подсчитать, в каких случаях генеративный ИИ терпит неудачу.

 

Вот 10 недостатков генеративного искусственного интеллекта. Этот список может показаться кислым виноградом — завистливые каракули писателя, который рискует потерять работу, если машинам позволят взять верх. Зовите меня крошечным человечком, болеющим за «команду людей», но разве мы все не должны немного волноваться?

 

Плагиат

 

Генеративные модели искусственного интеллекта, такие как DALL-E и ChatGPT, на самом деле просто создают новые шаблоны из миллионов примеров в своем обучающем наборе. Результаты представляют собой синтез «вырезать и вставить», взятый из различных источников, также известный как плагиат, когда это делают люди.

 

Конечно, люди тоже учатся путем подражания, но в некоторых случаях заимствование настолько очевидно, что это насторожило бы даже школьного учителя. Такой контент, сгенерированный искусственным интеллектом, состоит из больших блоков текста, которые представлены более или менее дословно. Однако иногда получается такое смешивание или синтез, что даже у группы профессоров колледжа могут возникнуть проблемы с определением источника. В любом случае не хватает уникальности. При всем своем блеске эти машины не способны производить ничего по-настоящему нового.

 

Авторское право

 

В то время как плагиат в значительной степени является проблемой для школ, закон об авторском праве применим к рынку. Когда один человек крадет у другого работу, он рискует попасть в суд, который может наложить штрафы на миллионы долларов. Но как насчет искусственного интеллекта? Применимы ли к нему те же правила?

 

Закон об авторском праве — сложная тема, и на урегулирование правового статуса генеративного ИИ уйдут годы. Но помните вот что: когда модели ИИ начнут делать работу достаточно хорошо, чтобы заменить людей, некоторые из этих людей наверняка потратят свое освободившееся время на подачу судебных исков.

 

Неоплачиваемый труд

 

Плагиат и авторское право — не единственные юридические проблемы, возникающие в связи с генеративным ИИ. Юристы уже придумывают новые этические проблемы для судебных разбирательств. В качестве примера, должна ли компания, создающая программу для рисования, иметь возможность собирать данные о поведении пользователя при рисовании, а затем использовать эти данные в целях обучения ИИ? Должны ли люди получать компенсацию за такое использование творческого труда? Большая часть успеха искусственного интеллекта нынешнего поколения связана с доступом к данным. Итак, что происходит, когда люди, генерирующие данные, хотят получить свой кусок пирога? Что справедливо? Что будет считаться законным?

 

Информация — это не знание

 

Искусственный интеллект особенно хорошо имитирует тот тип интеллекта, на развитие которого у людей уходят годы. Когда ученый-человек способен написать в стиле малоизвестного художника 17 века или создать новую музыку в почти забытой тональной структуре эпохи Возрождения, у нас есть веские причины быть впечатленными. Мы знаем, что потребовались годы учебы, чтобы развить такую глубину знаний. Когда искусственный интеллект делает то же самое всего за несколько месяцев обучения, результаты могут быть ослепительно точными и правильными, но чего-то не хватает.

 

Если хорошо обученная машина сможет найти нужную старую квитанцию в цифровой обувной коробке, заполненной миллиардами записей, она также сможет узнать все, что нужно знать о такой поэтессе, как Афра Бен. Можно даже поверить, что машины были созданы для расшифровки значения иероглифов майя. Может показаться, что ИИ имитирует игривую и непредсказуемую сторону человеческого творчества, но на самом деле он не может этого добиться. Между тем непредсказуемость — это то, что движет творческими инновациями. Такие отрасли, как мода, не только зависимы от перемен, но и определяются ими. По правде говоря, искусственный интеллект имеет свое место, как и старый добрый, заработанный тяжелым трудом человеческий интеллект.

 

Интеллектуальный застой

 

Говоря об интеллекте, модели ИИ по своей сути механичны и основаны на правилах. Как только искусственный интеллект просматривает набор обучающих данных, он создает модель, и эта модель на самом деле не меняется. Некоторые инженеры и специалисты по обработке данных предполагают постепенную переподготовку моделей искусственного интеллекта с течением времени, чтобы машины могли научиться адаптироваться. Но, по большей части, идея состоит в том, чтобы создать сложный набор нейронов, которые кодируют определенные знания в фиксированной форме. Постоянство имеет свое место и может сработать в определенных отраслях. Опасность искусственного интеллекта заключается в том, что он навсегда застрянет в духе времени своих обучающих данных. Что происходит, когда мы, люди, станем настолько зависимыми от генеративного ИИ, что больше не сможем создавать новый материал для обучающих моделей? 

 

Конфиденциальность и безопасность

 

Обучающие данные для ИИ должны откуда-то поступать, и мы не всегда уверены, что именно застревает внутри нейронных сетей. Что, если искусственный интеллект допустит утечку личной информации из своих тренировочных данных? Что еще хуже, заблокировать ИИ намного сложнее, потому что он спроектирован так, чтобы быть очень гибким. Реляционная база данных может ограничить доступ к определенной таблице с личной информацией. Однако к ИИ можно обращаться десятками различных способов. Злоумышленники быстро научатся задавать правильные вопросы правильным способом, чтобы получить нужные им конфиденциальные данные. В качестве примера предположим, что широта и долгота конкретного актива заблокированы. Умный злоумышленник мог бы запросить точный момент восхода солнца в течение нескольких недель в этом месте. Послушный искусственный интеллект попытается ответить. Обучение ИИ защите личных данных — это то, чего мы пока не понимаем.

 

Необнаруженная предвзятость

 

Даже самые ранние программисты мэйнфреймов понимали суть проблемы с компьютерами, когда придумали аббревиатуру GIGO, или «мусор на входе, мусор на выходе». Многие проблемы с ИИ возникают из-за плохих обучающих данных. Если набор данных неточен или предвзят, результаты будут отражать это.

 

Аппаратное обеспечение, лежащее в основе генеративного ИИ, может быть логичным, но люди, которые создают и обучают машины, — нет. Было показано, что предвзятые мнения и пристрастность находят свое отражение в моделях искусственного интеллекта. Возможно, кто-то использовал необъективные данные для создания модели. Возможно, они добавили переопределения, чтобы модель не отвечала на какие-то актуальные вопросы. Возможно, они ввели запрограммированные ответы, которые затем сложно обнаружить. Люди нашли множество способов убедиться в том, что модели ИИ являются отличными проводниками наших пагубных убеждений.

 

Глупость машин

 

Моделям искусственного интеллекта легко прощать ошибки, потому что они хорошо справляются со многими другими вещами. Просто многие ошибки трудно предвидеть, потому что ИИ мыслит иначе, чем люди. Например, многие пользователи функций преобразования текста в изображение обнаружили, что ИИ неправильно понимает довольно простые вещи, такие как подсчет. Люди осваивают основы арифметики в раннем возрасте в начальной школе, а затем используют этот навык самыми разнообразными способами. Попросите 10-летнего ребенка нарисовать осьминога, и он почти наверняка убедится, что у него восемь ног. Текущие версии ИИ, как правило, путаются, когда дело доходит до абстрактного и контекстуального использования математики. Это может легко измениться, если разработчики моделей уделят некоторое внимание этому упущению, но будут и другие. Машинный интеллект отличается от человеческого, и это означает, что глупость машин тоже будет отличаться.

 

Человеческая доверчивость

 

Иногда, сами того не осознавая, мы, люди, склонны заполнять пробелы в разуме искусственного интеллекта. Мы заполняем недостающую информацию или интерполируем ответы. Если искусственный интеллект говорит нам, что Генрих VIII был королем, убившим своих жен, мы не подвергаем это сомнению, потому что сами не знаем этой истории. Мы просто предполагаем, что искусственный интеллект прав. Если утверждение сделано с уверенностью, человеческий разум склонен принимать его как истинное.

 

Самая сложная проблема для пользователей генеративного ИИ — это понять, когда ИИ ошибается. Машины не могут лгать так, как люди, но это делает их еще более опасными. Они могут привести абзацы совершенно точных данных, а затем перейти к спекуляциям или даже откровенной клевете, и никто не узнает, что это произошло. Продавцы подержанных автомобилей или игроки в покер, как правило, знают, когда они обманывают, и у большинства есть информация, которая может разоблачить их клевету; ИИ действует по-другому.

 

Бесконечное изобилие

 

Цифровой контент бесконечно воспроизводим, что уже поставило под угрозу многие экономические модели, построенные на дефиците. Генеративный ИИ еще больше разрушит эти модели. Генеративный ИИ лишит работы некоторых писателей и художников; это также переворачивает многие экономические правила, по которым мы все живем. Будет ли работать рекламный контент, когда и рекламу, и контент можно будет бесконечно комбинировать и регенерировать? Превратится ли бесплатная часть Интернета в мир ботов, нажимающих на рекламу на веб-страницах, созданных и бесконечно воспроизводимых генеративными ИИ?

 

Такое легкое изобилие может подорвать все сферы экономики. Будут ли люди продолжать платить за невзаимозаменяемые токены, если их можно будет копировать вечно? Если создавать искусство так легко, будут ли его по-прежнему уважать? Будет ли это по-прежнему особенным? Будет ли кого-нибудь волновать, если в этом нет ничего особенного? Может ли все потерять ценность, когда все это воспринимается как должное? Не это ли имел в виду Шекспир, когда говорил о пращах и стрелах яростной судьбы? Давайте не будем пытаться ответить на эти вопросы сами. Давайте просто попросим генеративный искусственный интеллект дать ответ, который будет забавным, странным и, в конечном счете, таинственным образом попадет в некую преисподнюю между правильным и неправильным.

 

Ссылка на источник