Искусственный интеллект все прочнее входит в нашу жизнь. Его начинают использовать с каждым годом все шире. Возможности ИИ очень широки, но в мире нет ничего идеального. Созданный «разум» тоже допускает ошибки, которые могут привести к печальным последствиям.
Вместе с обучением искусственного интеллекта и исследованием его возможностей, постоянно ведается изучение и его ошибок. Это важно не только для улучшения работы ИИ, но и для каждого пользователя. Ведь очень нужно понимать, где могут скрываться «подводные камни», чтобы предотвратить последствия.
Недавнее исследование Microsoft и Университета Карнеги-Меллона показало, что люди, которые применяют искусственный интеллект, могут страдать от нехватки критического мышления. Чем больше доверия в ИИ, тем ниже этот полезный навык.
При этом стоит учитывать, что критическое мышление является одним из наиболее востребованных навыков в современном обществе. Умение подвергать сомнению, перепроверять, не доверять с ходу – одна из профессиональных способностей, которые высоко ценят работодатели. Более того, такой навык – важнейший при ведении бизнеса.
Чем больше мы оставляем за ИИ в области рутинных задач, тем менее критично мы относимся ко всему в принципе. То есть возвращаем способности ребенка безоговорочно доверять родителям и не ставить под сомнение их слова и действия. Только вместо мамы и папы может быть кто угодно или что угодно.
Это, конечно, не значит, что нужно перестать использовать искусственный интеллект для решения задач. Достаточно просто принять как данность, что к нему нужно относиться критично, перепроверять, уточнять и исправлять.
К сожалению, такое удобное изобретение человека, как чат GPT и иже с ним, часто ошибаются. И намного чаще, чем мы думаем. Явные глупости, которые тиражировали пару лет назад, вроде рекомендаций по поеданию камней и ошибок в простейших решениях, сейчас вряд ли встретишь. Разве что возьмешь весьма молодую и неопытную модель ИИ. Но даже самые «ученые» из них ошибаются чаще, чем человек.
В прошлом году провели исследование среди программистов показало, что применение искусственного интеллекта на данном этапе не помогает, а только напрягает в работе. Посудите сами. Затраченное время на создание кодов оказалось значительно меньшим, чем на проверку и исправление ошибок в них после работы ИИ. Оказалось, что при работе с традиционными инструментами разработчики выполняли все быстрее. И хоть искусственный интеллект справляется с задачей с более высокой скоростью, но он ошибается в 41% случаев. И эти ошибки нужно найти. Разобраться в том, что насочинял ИИ бывает настолько сложно, что проще переписать самостоятельно. Таким образом продуктивность не повышалась, а сложностей оказалось больше.
Вообще исправлять ошибки за ИИ – не самая интересная работа. Поэтому не всегда пользователи дотошно разбираются правильно ли что-то написал чат или это ошибка. Что приводит к использованию недостоверной или вовсе ошибочной информации.
Если кто-то из людей обидится за недоверие, то ИИ – нет. Поэтому стоит перепроверить, а что же он нам такое понаписывал. ВВС провели исследование, которое позволило выявить слабые места искусственного интеллекта в обработке фактов. Популярным моделям задавали сто вопросов, а для составления ответов просили использовать материалы, опубликованные на сайте ВВС. И выяснилось, что ИИ ошибался в половине случаев. То искажал факты, то сам выдумывал цитаты.
Почему так получилось? Во-первых, искусственный интеллект не отличал факты от мнений, а значит, выдавал рассуждения и предположения за объективную реальность. Во-вторых, для него не существовало времени, для ответа на один вопрос он мог взять как архивную информацию, так и свежую и перемешать ее. Также ИИ пытался рассуждать и интерпретировать информацию по-своему.
Последний момент и вовсе очень интересный. Несмотря на умение современных моделей строить рассуждения и основываться на логике, его ход мысли кардинально отличается от человеческой. Прошлогодние исследования Apple показали, что ИИ не может сам решить, насколько значим тот или иной момент в заданной информации. Когда его попросили посчитать киви, которые собирал некий Оливер, то все хорошо шло ровно до того момента, пока в условии задачи не появились фрукты «меньше среднего» размера. В первом случае ИИ просто сложил все киви, собранные Оливером в пятницу, субботу и воскресение. Во втором случае, среди собранных в последний день указывались пять «менее среднего». Искусственный интеллект решил, что раз эти не такие, как все, то их нужно отнять. И ответ в задаче получился неверным. Получается, что самостоятельно определить, что имеет значение, а что нет, ИИ не в силах.
Обратите внимание на то, где искусственный интеллект берет информацию. От тех баз данных, к которым имеет доступ. Ни одна, из имеющихся на сегодняшний день, моделей не может самостоятельно решить, хватает ли ей информации или нужно поискать где-то еще. Точнее не так, она может сказать, что ответ на промт невозможен, потому что данных не хватает, подсчитать и определить сложно и так далее. Но если данные есть, то ИИ их использует, при этом не имеет значения насколько они разносторонне представлены.
Что делает человек, если ему не хватает информации или что-то кажется не совсем понятным и объективным? Он может добыть информацию другим путем: написать в ВОЗ, дозвониться в НИИ, записаться в Национальную библиотеку, провести эксперимент, пообщаться с людьми, просмотреть все последние свежие новости в разных источниках, составить обращение в государственные органы…. В общем, все, что только возможно, и при желании добьется ответа, который станет комбинацией всех этих действий.
ИИ же займется обработкой баз данных, которые даже при хорошем раскладе не обновляются ежедневно. Они хоть и весьма обширны, но не затрагивают все возможные инструменты получения информации. При этом ИИ выдаст эти данные как единственно верные. Например, часто при запросах искусственный интеллект может проявлять дискриминацию. Это не его собственное решение, просто в его базах большинство информации так представлено. Например, ИИ обучался на картинках, в которых физики-ядерщики мужчины, ну, и парочка женщин затесалась. Поэтому он и будет генерировать типично «мужские» картинки. Можно ли все предусмотреть при формировании базы? Вряд ли, нюансы будут выплывать еще очень и очень долго.
Буквально совсем недавно международная команда ученых выявила, что искусственный интеллект с трудом распознает грамматические ошибки. С орфографией и пунктуацией он справляется, а вот верное построение предложений, согласование их членов и прочее дается ему с трудом. Люди сразу видят, какие предложения написаны ошибочно, ИИ же этого не замечает.
Это связано с особенностями обучения искусственного интеллекта. Люди постепенно в течение жизни учатся говорить правильно, их мягко поправляют родители, они постоянно слышать речь и корректируют свое понимание правильного употребления. ИИ же загружают базу данных. И несмотря на то, что все правила грамматики естественно внесены в нее, искусственный интеллект не может верно все интерпретировать.
Кроме того, что ИИ обучается специалистами, он учится и у пользователей. С одной стороны это расширяет возможности, но с другой добавляет головной боли, ведь пользователи тоже могут ошибаться. Искусственный интеллект можно переучить настолько, что он начнет ругаться, проявлять нетерпимость и нарушать иные нормы, не говоря уже об ошибках.
Как ошибается человек? Одна неверная деталь, неточность, начинает тянуть за собой другие. Если мы устали или плохо себя чувствуем, ошибки будут множиться. Если человек не разбирается в одной теме, то в ней он будет допускать оплошности, а в той, где знания на высоком уровне вероятность этого значительно ниже. В результате мы даже можем предсказывать вероятность, кто, когда и в чем может ошибиться.
С ИИ все не так. Его ошибки закрадываются самым случайным образом. Логически выстроенный и выверенный текст может оказаться с небольшой ошибкой, а дальше все опять будет правильно. И даже результат окажется верным. Неточности могут возникать где угодно, когда их совсем не ожидаешь. Они не зависят от темы или сложности. Ну, и к усталости они тоже не имеют никакого отношения. Получается, что предсказать, когда и как проколется искусственный интеллект невозможно. Поэтому стоит ожидать подвоха постоянно.
Нейросети и сами знают, что им нельзя доверять. Причем могут рассказать, где они не способны справиться. Мы попросили чат GPT рассказать об этом и вот, что выяснили.
«Искусственному интеллекту (ИИ) нельзя доверять в следующих ситуациях:
1. В вопросах, требующих морального и этического суждения:
2. В ситуациях, требующих креативности, интуиции и вдохновения:
3. В областях, где требуются здравый смысл, адаптивность и учет реального контекста:
4. В вопросах, связанных с безопасностью и конфиденциальностью:
5. В ситуациях, где требуются ответственность и подотчетность:
В общем, нельзя слепо доверять ИИ там, где:
Важно помнить, что ИИ – это всего лишь инструмент, который может быть использован как во благо, так и во вред. Необходимо разрабатывать и использовать ИИ ответственно, с учетом его ограничений и потенциальных рисков. Критическое мышление и человеческий контроль всегда должны оставаться важными элементами при взаимодействии с ИИ».
Цитата приведена полностью и без корректировки. Стоит помнить, что искусственный интеллект не может проявлять и считывать эмоции, он не разбирается в нюансах отношений, а они иногда очень важны для различных решений и анализа. Невозможно и переложить ответственность на ИИ, а ведь он периодически ошибается. Жизнь часто ставит нас в такие условия, когда нужно действовать по-новому, проявлять креатив и оригинальность, создавать что-то уникальное, а все это не во власти нейросетей. Кстати, последние исследования показали, что злоупотребление искусственным интеллектом также снижает личные способности к креативу. А значит, под угрозой и поиск этих самых необычных решений, и творческий подход. ИИ – отличный инструмент, но с ним всегда нужно быть начеку.