БЕЗОПАСНОСТЬ VS. АВТОМАТИЗАЦИЯ: КТО ГЛАВНЫЙ В ДИЛЕММЕ ВНЕДРЕНИЯ ИИ?
Стремительная интеграция ИИ в информационную сферу и интеллектуальный труд стала необратимой реальностью. Однако "разгуляй" искусственного интеллекта несет не только облегчение, но и новые вызовы для современного "человека работающего". Исследование Microsoft, изучившее 319 специалистов (от математиков до учителей), выявило парадокс: GenAI снижает нагрузку на одни когнитивные функции (сбор информации, генерация решений), но тут же создает новую. Человек вынужден тратить силы на верификацию (ловля "галлюцинаций" ИИ), интеграцию (адаптация сгенерированных ответов) и управление задачами (точная постановка, контроль).
Еще тревожнее три барьера для критического осмысления результатов ИИ: осведомленность (непонимание когда нужно сомневаться, особенно в рутине), мотивация (нехватка времени/стимулов для проверки) и возможности (нехватка экспертизы для оценки сложных ответов). Это усугубляет риски чрезмерной зависимости, особенно в высокоответственных сферах вроде юриспруденции. Ключевое последствие — растущая пропасть на рынке труда: ценность экспертов, способных контролировать ИИ, взлетает, а шансы новичков (без опыта для такой проверки) резко падают, усиливая кадровую "головоломку". Вопрос, станет ли ИИ управляемым инструментом или превратит человека в заложника "цифровой покорности", остается открытым, требуя осознанного баланса автоматизации и безопасности во всех отраслях, включая гостеприимство.
Чрезмерная зависимость от вычислительных технологий — явление не новое, однако инструменты GenAI могут усугубить связанные с этим риски. Такая зависимость может быть приемлемой для задач с низкими ставками - таких, как проверка грамматики, но может привести к значительным негативным последствиям в ситуациях, где ставки высоки - например, при составлении юридических документов.
Эксперты из Microsoft исследовали 319 работников интеллектуального труда: от математиков и программистов до дизайнеров, учителей и финансистов с целью выяснить, как использование ИИ сказывается на их рабочей когнитивной нагрузке. В результате они представили внушительное исследование под названием The Impact of Generative AI on Critical Thinking ... (Влияние генеративного ИИ на критическое мышление ...).
Выполнение части задач ИИ значительно упрощает, но плата за это — новые задачи и виды когнитивной нагрузки - резюмируют авторы работы.
ИИ гораздо быстрее людей собирает и упорядочивает большие объемы информации, что ощутимо разгружает умы людей. Однако ИИ склонен к галлюцинациям, ошибкам и неточностям, поэтому людям приходится тратить значительный когнитивный ресурс на проверку адекватности, точности и подлинности результатов работы ИИ.
ИИ способен генерировать множественные решения для поставленных задач, что высвобождает когнитивные ресурсы человека. Однако человеку приходится интегрировать эти решения для своих рабочих нужд: отбирать лучшие ответы или части ответов ИИ, изменять их стиль, подбор слов или тональность.
ИИ помогает людям обрабатывать сложные задачи и информацию и автоматизирует многие действия. Однако люди тратят когнитивные ресурсы на формулирование задач для ИИ и управление его ответами, а также на контроль качества выполненной работы и несение ответственности за результат.
Авторы исследования выделили три типа барьеров для критического мышления, возникающих при использовании инструментов GenAI:
Инструменты GenAI создают препятствия для работников интеллектуального труда, не позволяя им осознать необходимость критического мышления, особенно когда задачи воспринимаются менее важными, и когда пользователи доверяют и полагаются на инструменты GenAI.
Участники исследования признались, что не проявляют критического мышления, когда задача воспринимается как тривиальная и незначительная, например, написание постов в социальных сетях или краткое изложение протокола совещания.
Другой аспект - некоторые участники исследования выразили неуверенность в своей способности выполнять задачи самостоятельно - такие, как проверка грамматики в тексте или составление юридических писем. Эта неуверенность в себе приводит их к принятию результатов GenAI по умолчанию (т..е как есть).
Хотя критическое мышление может не быть необходимым для задач с низкими ставками, пользователям рискованно применять его только в ситуациях с высокими ставками. Без регулярной практики в обычных и/или низкоуровневых сценариях когнитивные способности могут со временем ухудшаться и, таким образом, создавать риски, если сценарии с высокими ставками являются единственной доступной возможностью для тренировки таких способностей. (Это явление хорошо задокументировано, например, в работе Бейнбриджа «Ирония автоматизации»).
Работники интеллектуального труда указывают, что приоритет критического мышления в их работе может не соответствовать их общей мотивации к выполнению задач или рабочим целям. Они упоминали нехватку времени для критического мышления на работе.
Например, представитель отдела развития продаж отметил, что «причина, по которой я использую ИИ, заключается в том, что в продажах я должен ежедневно достигать определенной квоты, иначе рискую потерять работу. Следовательно, я использую ИИ для экономии времени и не имею времени для обдумывания результата».
Но даже и при наличии времени работники интеллектуального труда часто не имеют стимулов использовать критическое мышление, когда это не воспринимается ими как часть их должностных обязанностей.
При проверке ответов ИИ сложность представляет недостаток знаний в предметной области - в случаях, когда человек не знаете конкретную тему, ему трудно определить, даёт ли ИИ правильный ответ (совет).
Источник.
Серьезное последствие влияния ИИ на рынок умственного труда в итоге выражается в том, что еще больше увеличивается ценность экспертизы людей и, соответственно, опытных работников - при резком падении ценности начинающих специалистов, обладающих низким уровнем экспертизы и потому неспособных качественно контролировать работу ИИ.
Таким образом, головоломка «чтобы тебя взяли на работу, нужен опыт, а чтобы появился опыт, нужно, чтобы тебя взяли на работу» становится еще более «головоломной».
Впрочем, дабы начинающим специалистам не было слишком обидно, Маск и другие «ИИ-оверлорды» говорят, что взращиваемые ими ИИ уже умнее всех самых умных, поэтому потерять работу могут и супер специалисты.
Hotelier.pro пристально следит за широкой поступью ИИ и анализирует вызовы, возникающие из-за экспансии вычислительных алгоритмов (и делится с читателями своими наблюдениями).
В самом деле, вопрос остаётся открытым: сможет ли человек превратить ИИ из непредсказуемого «господина» в управляемого «слугу» или станет заложником цифровой покорности, принимая решения ИИ? Ответ зависит от осознанного подхода к внедрению технологий, баланса между автоматизацией и безопасностью - см. публикацию.
Действительно, в современном мире кибербезопасность становится одной из ключевых проблем для бизнеса, особенно в сфере гостеприимства, где конфиденциальность данных гостей и сотрудников имеет первостепенное значение. Как показывает практика, даже самые опытные руководители отелей не застрахованы от кибератак и мошеннических схем - см. публикацию АТАКИ НА ТОП-МЕНЕДЖЕРОВ.
В какой-то момент вопросы удобства и комфорта вытеснили для нас вопросы безопасности на второй план. Но сейчас все должно быть ровно наоборот. См. публикацию ОТЕЛЬ ДОЛЖЕН БЫТЬ БЕЗОПАСНЫМ МЕСТОМ.
Для отельного бизнеса это гамлетовская дилемма: внедрять иль не внедрять ИИ в работу отельера - об этом, в частности, в публикации.
Вопрос с применением ИИ не оставляет равнодушным многие высокотехнологичные компании. Например, TravelLine. Прошлой осенью на конференции Overbooking Александр Галочкин, руководитель TravelLine, прямо задавался вопросом: ИИ - КИБОРГ-УБИЙЦА ИЛИ ДОБРЫЙ ВОЛШЕБНИК? (см. публикацию).
«ИИ-фикация» сегодня провоцирует этот и многие другие вопросы.
Это авторский материал. Мнение редакции может не совпадать с мнением автора.
Павел Баскаков
защита от спама Yandex SmartCaptcha