Доверие к искусственному интеллекту в состоянии неопределённости.
12.03.2025
Искусственный интеллект (ИИ), область, в которой сервера (мощные быстродействующие компьютеры) используются для имитации или воспроизведения возможностей человеческого разума по решению проблем и принятию решений, оказывает значительное влияние на работу и жизнь людей. Внедрение моделей ИИ для принятия решений значительно увеличивается в нашей повседневной жизни от досуга, развлечений, компьютерных игр, до более чувствительных областей, таких, как научно-исследовательская деятельность, банковское дело, транспорт, управление городской инфраструктурой, здравоохранение, маркетинг и даже помогает следственным мероприятиям и правосудию (в некоторых вопросах).
До недавнего времени разработка систем ИИ в основном осуществлялась на основе «технологически-ориентированного подхода», который фокусируется на алгоритмах, а не на разработке полезных узкопрофильных программных продуктов/сервисов, которые отвечают реальным потребностям пользователей. Однако пренебрежение принятием стратегии целевого подхода, который отдаёт приоритет удобству использования и полезности этих систем, фокусируясь на реальной прикладной пользе и требованиях, может привести к ограниченному их использованию и внедрению в реальные сектора человеческой деятельности. При этом, одним из конкретных аспектов проектирования человеко-ориентированного ИИ является рассмотрение того, как лучше всего представлять информацию, сгенерированную «компьютерным разумом». Хотя этот вопрос кажется простым и очевидным, но в случае с обработкой больших разрозненных данных, он приобретает немаловажное значение, так как даже различные типы визуализации могут повлиять на восприятие, трактовку и понимание информации человеком.
Пользователи часто полагаются на «экспертные знания» самих моделей искусственного интеллекта, не понимая достоверности выдаваемых им прогнозов и результатов, почти до такой степени, что полностью делегируют решения автоматизированным системам. Это может привести к ложному чувству уверенности, неэффективному принятию решений и неверным выводам. Действительно, нечёткая интерпретация результатов (например, рекомендации) не является тривиальной и может представлять собой проблему для многих неспециалистов, особенно в областях, где существует высокая неопределённость. Как раз эксперты отмечают слабые позиции в ответах, которые часто выдаёт искусственный «разум». Это становится ещё более очевидно, когда человеческие факторы (например, визуальное восприятие и познание) не учитываются при выборе дизайна представления результатов, что может привести к ошибкам в решениях, которые могут оказать неблагоприятное воздействие на пользователей этих систем.
Визуализация данных — это метод создания эффективных визуальных представлений информации, который преобразует наборы выходных данных в визуальные компоненты для получения действенных идей. Например, тепловые карты являются широко используемым подходом, ориентированным на цвет, который особенно полезен для определения областей интереса. Как правило, диапазон между синим и зелёным указывает на области с низким интересом, а диапазон между жёлтым и красным указывает на области с высоким интересом. Но, несмотря на кажущиеся преимущества этого представления, такие карты могут ещё больше запутать пользователя из-за отсутствия перцептивного упорядочения. А вот альтернативой цветным тепловым картам является использование изменений контрастности или яркости в одном оттенке, что позволяет с гораздо большей уверенностью сравнивать относительные значения между областями с высоким и низким интересом.
Доверие в аспекте информации, определяется, как степень, в которой человек или группа людей полагаются на надёжность полученных данных. Этот фактор сейчас имеет решающее значение для использования ИИ в качестве систем поддержки принятия решений. Но пока такого абсолютного доверия не было достигнуто ни в одном сегменте человеческой деятельности. Наоборот, по прошествии некоторого времени многие специалисты начали создавать специальные онлайн-опросники, специализированные приложения и симуляции в качестве инструментов для оценки доверия к ИИ. Уже не один раз происходили случаи, когда даже на несложные вопросы по какой-либо дисциплине, машина давала взаимоисключающие ответы. Именно поэтому у людей иссякает восприятие доверия к экспертности искусственного интеллекта в его нынешнем виде. Причём выявляется такая закономерность - что чем больше информации для обучения «потребляет» искусственный разум, тем больше он сам запутывается в выдаваемых им данных.
Ещё одним показательным примером может служить восприятия пользователями доверия, ожиданий производительности и намерений относительно качества финансовых консультаций: финансовые консультанты-люди (независимо от уровня их знаний и пола) пользуются большим доверием, чем аналоги на основе ИИ. Участники оценивались на основе доверия и воспринимаемой полезности, рабочей нагрузки и предпочтения между этими двумя вариантами.
Совсем уж удивительным выглядит исследование поведенческого доверия к человеческим и ИИ-аналогам в зависимости от их вычислительных способностей и риска предательства. Вроде бы в этом вопросе непредвзяты искусственный интеллект должен побеждать. Но нет. Исследование показало, что участники больше доверяют человеческим, чем ИИ-агентам в простой задаче на принятие риска. Хотя обе задачи показали риск предательства с использованием дискретных вероятностей (например, 0–100%) на основе предыдущих результатов. Исследование не выявило существенных различий в доверительном поведении между человеческими и компьютерными аналогами, а также никаких доказательств неприятия предательства по отношению к людям или ИИ. Небольшая модификация этого исследования в сторону финансового консультирования показала, что больше графической информации, выдаваемой сервером на экран компьютеров участников эксперимента, заставляло людей идти на ненужный и неоправданный риск.
Учёт человеческого фактора в представлении выходных данных ИИ по-разному влияет на доверие людей, но также приводит к разным результатам в зависимости от их опыта. Эти результаты мотивируют разработчиков систем принятия решений сообщать пользователям информацию о том, какую именно информацию сгенерировала нейросеть, так как даже визуальные представления могут оказать более сильное влияние на восприятие человека, сподвигнув его к принятию неправильного решения или спровоцировав к излишнему риску. Сейчас только некоторые экосистемы в интернете помечают дисклеймерами информацию от ИИ, но очень редко это касается изображений, инфографики и подобных визуальных представлений информации. Разработчики ИИ должны обратить внимание на то, какие визуальные представления максимизируют влияние на процесс принятия решений и необходимо ли сочетание визуальных представлений для достижения аналогичного эффекта.
Для тех людей, которые положительно относятся к ИИ, использование визуальных представлений для демонстрации неопределённости, связанной с прогнозом ИИ, может повысить уровень доверия. Это важно в приложениях, ориентированных на здоровье. Человека можно убедить изменить свои привычки в занятиях спортом, чтобы достичь своих целей в области оздоровления, учитывая ряд возможных результатов и уровень уверенности, сопровождающий предложения ИИ. С другой стороны, чтобы учесть людей, которые негативно относятся к ИИ, разработчикам может потребоваться включить дополнительные функции, чтобы смягчить любой скептицизм.
Популярное
Косынки на сосне — тайна исчезновения двух девушек, которую не могли раскрыть 33 года
Когда молоко не то, чем кажется — Роскачество разоблачило недобросовестных производителей молока
Лучшее сливочное масло — рейтинг Роскачества и методы проверки
С декабря в Оренбурге начнут действовать изменения для автовладельцев
28 ноябряСтранный вопрос инспектора ГАИ — что скрывается за фразой «Куда едете»
Подъехал аналог Fix Price: намного аккуратнее и солиднее — сравниваю товары и честно рассказываю, какой магазин выбираю
Сотрудник ГАИ остановил вашу машину, но не подходит — как правильно вести себя в этой ситуации
РЖД в 2025‑м: что изменилось в поездах дальнего следования — главные новшества
Ростехнадзор назвал причины обрушения орской дамбы: мыши ни при чём
30 ноябряЭти бренды сыра не сумели доказать своей чистоты, разочаровавши Роскачество
Какой будет зима 2025-2026 для разных регионов России
Водители с категорией «B» получат еще одни права без экзамена - автоматически
Орск теряет жителей: что происходит с городом и почему это важно
22 ноябряПроверка Роскачества — какой растворимый кофе следует покупать
Один шаг на "зебру" — не аргумент: Верховный суд объяснил, когда автовладельцу уступать пешеходу — запомните на всю жизнь
Правда ли, что излучение микроволновки опасно — ученые давно дали ответ
Обходят за версту: почему работники магазинов и птицефабрик никогда не покупают яйца категории С0 даже по акции
Синоптики сообщили, что в декабре в России не будет сильных морозов
Какой будет зима 2025–2026 в России
Роскачество исследовало «Докторскую» колбасу и назвало бренды, что не прошли экспертизу
