isicad.ru :: портал САПР, PLM и ERP :: версия для печати

Статьи

26 апреля 2023

Искусственный интеллект бывает умным, когда не тупит

Ральф ГрабовскиРальф Грабовски

Ральф Грабовски высказывает свое мнение о книге Эммануэля Маджори “Smart Until It's Dumb: Why artificial intelligence keeps making epic mistakes (and why the AI bubble will burst)”

(«Умный, когда не тупит: почему искусственный интеллект продолжает совершать эпические ошибки (и почему пузырь ИИ лопнет)»)

Оригинал публикации: Book Review: “Smart Until It’s Dumb”



На пути искусственного интеллекта к господству над человечеством и остальным миром случилось нечто неожиданное. На него подали в суд.

ChatGPT компании OpenAI, финансируемой Microsoft, выдал новость, в которой говорилось, что действующий мэр одного из городов в Австралии был посажен в тюрьму за банковское мошенничество. Но он этого не делал. Как раз наоборот: он, по сути, дал толчок расследованию, которое завершилось обвинением других людей.

До сегодняшнего дня разработчики и апологеты искусственного интеллекта только посмеивались над его логическими ошибками. Кэти Ашер, старший директор по связям с общественностью Microsoft, общаясь с Washington Post по поводу несуществующих газетных статей, которые цитировал ChatGPT, сказала, что «компания предпринимает шаги для обеспечения безопасности и точности результатов поиска». ИИ слишком важен, и нельзя не признавать его внутренних проблем. Но игнорирование проблем само по себе является проблемой.


С одной стороны, некоторые ошибки ChatGPT забавны, и мы снисходительно смеемся над глупым компьютером:

В: Напишите предложение, в котором буква «f» встречается ровно три раза.
О: He offered her a cup of coffee and a fresh croissant for breakfast.

А вот это уже не смешно: в статье Washington Post (март 2018 года) профессор права был обвинен в сексуальных домогательствах во время поездки со студентами на Аляску. Поездки на самом деле не было, профессора никто не обвинял, а статьи в Washington Post не существует. ChatGPT все это выдумал. Я редко использую слово «пугающий», но это пугает.

Эти истории звучат на той же волне, что и книга Эммануэля Маджори «Умный, пока не станет тупым: почему искусственный интеллект продолжает совершать эпические ошибки (и почему пузырь ИИ лопнет)», изданная ранее в этом году. Автор — обладатель докторской степени, разрабатывал программы машинного обучения для компании Expedia, а сегодня — программист-фрилансер.

В своей небольшой книге он кратко описывает историю ИИ с начала 1960-х (на самом деле она началась в 1950-х), а затем рассуждает о разных видах ИИ. Нет какой-то единой системы — есть ряд систем нарастающей сложности, которые пытаются со временем стать всё более «мета». Мета означает программное обеспечение, которое использует программное обеспечение на более высоких уровнях абстракции.

Мне было интересно посмотреть, коснется ли г-н Маджори материалистического детерминизма, — он коснулся. Он затрагивает некоторые аспекты проблемы сознания мозга в главе «Разум» (The Mind). Он отмечает, что для перехода к искусственному общему интеллекту (artificial general-intelligence), то есть компьютерам, способным стать эквивалентом человеческого мозга, требуется инновационный прорыв, появление которого мы не можем предсказать, хотя некоторые энтузиасты неоднократно говорили и продолжают говорить о 2029 годе.

Он напоминает о безуспешных попытках программистов ИИ воспроизвести процессы, происходящие в нашем мозге. «Если мы хотим показать, что система глубокого обучения сравнима с нашим мозгом, мы должны проигнорировать множество фактов», — заключает он.

Как инсайдер отрасли, г-н Маджори рассказывает о том, о чем не принято говорить, когда речь заходит об ИИ.

В частности, разработчики ИИ сообщают о процентах ошибок, но не о серьезности этих ошибок. Например, разработка беспилотных автомобилей шла полным ходом (к 2018 году, не позже!), потому что 37 462 человека в США ежегодно погибали от рук людей, управляющих автомобилями, но было объявлено, что это должно будет прекратиться, как только место этих убийц займет искусственный интеллект.

Мы знаем, что Tesla последние пять лет не ездит автономно, и причина заключается в том, что ИИ в автомобилях работает в тех ситуациях, для которых он был обучен; его нельзя обучить неожиданным событиям, с которыми прекрасно справляются люди. Это касается и большей части хайпа вокруг ИИ: триумфальные заявления об очередном продвижении ИИ сопровождаются замалчиванием множества фактов.

Г-н Маджори предостерегает бизнес от внедрения ИИ в угоду моде. Он был свидетелем того, как компании думали, что у них работает ИИ, а затем тратили время и деньги на то, чтобы понять, что он не работает должным образом. Иногда ИИ навязывается фирмам, потому что правительства выделяют на это деньги, желая, чтобы их регион стал мировым лидером в области ИИ. Он рассказал о том, как сотрудники иногда жульничают, чтобы показать руководителям, что ИИ работает.

Возлагать большие надежды на новые технологии — нормально. Это напоминает мне о другой технологии, которая была способна на все, когда она была еще новой. Я помню, как в 1980-х люди восклицали, что «нет предела возможностям» для нового на тот момент программного обеспечения для автоматизированного проектирования; это оказалось не так, и сегодня никто из нас не хотел бы возвращаться к САПР 1980-х годов, потому что эти системы были очень ограниченными.

Ограничения новых технологий не всегда видны сразу, и кроме того, как отмечает г-н Маджори, ограничение может быть связано с отсутствием потребительского спроса; это сегодня ограничивает рынок VR/AR/XR и убило 3D-телевидение в прошлом десятилетии.

Учитывая все сказанное, мы можем только грустно покачать головой в адрес тех, кто всего лишь два месяца назад с энтузиазмом описывал будущее, связанное с ИИ:

Несмотря на перечисленные проблемы, некоторые высокопоставленные лидеры настаивают на расширенном использовании ИИ. Самым пугающим был призыв основателя Microsoft миллиардера Билла Гейтса использовать искусственный интеллект для борьбы не только с «цифровой дезинформацией», но и с «политической поляризацией». В интервью немецкой программе Handelsblatt Disrupt в феврале 2023 г. Гейтс предлагал использовать ИИ, чтобы остановить «различные теории заговора» и предотвратить «распространение определенных взглядов цифровыми каналами». Он добавил, что ИИ может бороться с «политической поляризацией», проверяя «предвзятость подтверждения».

Использование ИИ для генерации цифровой дезинформации и в различных теориях заговора, усиленных цифровыми каналами, может привести к тому, что он обрушится, как криптовалютная биржа.

Все права защищены. © 2004-2025 Группа компаний «ЛЕДАС»

Перепечатка материалов сайта допускается с согласия редакции, ссылка на isicad.ru обязательна.
Вы можете обратиться к нам по адресу info@isicad.ru.