Во время посещения сайта вы соглашаетесь с тем, что мы обрабатываем ваши персональные данные с использованием метрик Яндекс Метрика, top.mail.ru, LiveInternet.

Доверие к искусственному интеллекту в состоянии неопределённости.

12.03.2025 

 

 

Искусственный интеллект (ИИ), область, в которой сервера (мощные быстродействующие компьютеры) используются для имитации или воспроизведения возможностей человеческого разума по решению проблем и принятию решений, оказывает значительное влияние на работу и жизнь людей. Внедрение моделей ИИ для принятия решений значительно увеличивается в нашей повседневной жизни от досуга, развлечений, компьютерных игр, до более чувствительных областей, таких, как научно-исследовательская деятельность, банковское дело, транспорт, управление городской инфраструктурой, здравоохранение, маркетинг и даже помогает следственным мероприятиям и правосудию (в некоторых вопросах).


До недавнего времени разработка систем ИИ в основном осуществлялась на основе «технологически-ориентированного подхода», который фокусируется на алгоритмах, а не на разработке полезных узкопрофильных программных продуктов/сервисов, которые отвечают реальным потребностям пользователей. Однако пренебрежение принятием стратегии целевого подхода, который отдаёт приоритет удобству использования и полезности этих систем, фокусируясь на реальной прикладной пользе и требованиях, может привести к ограниченному их использованию и внедрению в реальные сектора человеческой деятельности. При этом, одним из конкретных аспектов проектирования человеко-ориентированного ИИ является рассмотрение того, как лучше всего представлять информацию, сгенерированную «компьютерным разумом». Хотя этот вопрос кажется простым и очевидным, но в случае с обработкой больших разрозненных данных, он приобретает немаловажное значение, так как даже различные типы визуализации могут повлиять на восприятие, трактовку и понимание информации человеком.


Пользователи часто полагаются на «экспертные знания» самих моделей искусственного интеллекта, не понимая достоверности выдаваемых им прогнозов и результатов, почти до такой степени, что полностью делегируют решения автоматизированным системам. Это может привести к ложному чувству уверенности, неэффективному принятию решений и неверным выводам. Действительно, нечёткая интерпретация результатов (например, рекомендации) не является тривиальной и может представлять собой проблему для многих неспециалистов, особенно в областях, где существует высокая неопределённость. Как раз эксперты отмечают слабые позиции в ответах, которые часто выдаёт искусственный «разум». Это становится ещё более очевидно, когда человеческие факторы (например, визуальное восприятие и познание) не учитываются при выборе дизайна представления результатов, что может привести к ошибкам в решениях, которые могут оказать неблагоприятное воздействие на пользователей этих систем.


Визуализация данных — это метод создания эффективных визуальных представлений информации, который преобразует наборы выходных данных в визуальные компоненты для получения действенных идей. Например, тепловые карты являются широко используемым подходом, ориентированным на цвет, который особенно полезен для определения областей интереса. Как правило, диапазон между синим и зелёным указывает на области с низким интересом, а диапазон между жёлтым и красным указывает на области с высоким интересом. Но, несмотря на кажущиеся преимущества этого представления, такие карты могут ещё больше запутать пользователя из-за отсутствия перцептивного упорядочения. А вот альтернативой цветным тепловым картам является использование изменений контрастности или яркости в одном оттенке, что позволяет с гораздо большей уверенностью сравнивать относительные значения между областями с высоким и низким интересом.


Доверие в аспекте информации, определяется, как степень, в которой человек или группа людей полагаются на надёжность полученных данных. Этот фактор сейчас имеет решающее значение для использования ИИ в качестве систем поддержки принятия решений. Но пока такого абсолютного доверия не было достигнуто ни в одном сегменте человеческой деятельности. Наоборот, по прошествии некоторого времени многие специалисты начали создавать специальные онлайн-опросники, специализированные приложения и симуляции в качестве инструментов для оценки доверия к ИИ. Уже не один раз происходили случаи, когда даже на несложные вопросы по какой-либо дисциплине, машина давала взаимоисключающие ответы. Именно поэтому у людей иссякает восприятие доверия к экспертности искусственного интеллекта в его нынешнем виде. Причём выявляется такая закономерность - что чем больше информации для обучения «потребляет» искусственный разум, тем больше он сам запутывается в выдаваемых им данных.


Ещё одним показательным примером может служить восприятия пользователями доверия, ожиданий производительности и намерений относительно качества финансовых консультаций: финансовые консультанты-люди (независимо от уровня их знаний и пола) пользуются большим доверием, чем аналоги на основе ИИ. Участники оценивались на основе доверия и воспринимаемой полезности, рабочей нагрузки и предпочтения между этими двумя вариантами.


Совсем уж удивительным выглядит исследование поведенческого доверия к человеческим и ИИ-аналогам в зависимости от их вычислительных способностей и риска предательства. Вроде бы в этом вопросе непредвзяты искусственный интеллект должен побеждать. Но нет. Исследование показало, что участники больше доверяют человеческим, чем ИИ-агентам в простой задаче на принятие риска. Хотя обе задачи показали риск предательства с использованием дискретных вероятностей (например, 0–100%) на основе предыдущих результатов. Исследование не выявило существенных различий в доверительном поведении между человеческими и компьютерными аналогами, а также никаких доказательств неприятия предательства по отношению к людям или ИИ. Небольшая модификация этого исследования в сторону финансового консультирования показала, что больше графической информации, выдаваемой сервером на экран компьютеров участников эксперимента, заставляло людей идти на ненужный и неоправданный риск.


Учёт человеческого фактора в представлении выходных данных ИИ по-разному влияет на доверие людей, но также приводит к разным результатам в зависимости от их опыта. Эти результаты мотивируют разработчиков систем принятия решений сообщать пользователям информацию о том, какую именно информацию сгенерировала нейросеть, так как даже визуальные представления могут оказать более сильное влияние на восприятие человека, сподвигнув его к принятию неправильного решения или спровоцировав к излишнему риску. Сейчас только некоторые экосистемы в интернете помечают дисклеймерами информацию от ИИ, но очень редко это касается изображений, инфографики и подобных визуальных представлений информации. Разработчики ИИ должны обратить внимание на то, какие визуальные представления максимизируют влияние на процесс принятия решений и необходимо ли сочетание визуальных представлений для достижения аналогичного эффекта.


Для тех людей, которые положительно относятся к ИИ, использование визуальных представлений для демонстрации неопределённости, связанной с прогнозом ИИ, может повысить уровень доверия. Это важно в приложениях, ориентированных на здоровье. Человека можно убедить изменить свои привычки в занятиях спортом, чтобы достичь своих целей в области оздоровления, учитывая ряд возможных результатов и уровень уверенности, сопровождающий предложения ИИ. С другой стороны, чтобы учесть людей, которые негативно относятся к ИИ, разработчикам может потребоваться включить дополнительные функции, чтобы смягчить любой скептицизм.

Популярное