Решение должно оставаться за человеком

15 апр 2022 02:40 #109293 от ICT
Участники секции "Вопросы доверия и этики в искусственном интеллекте (ИИ) и работе с данными" конференции Data Fusion на основе накопленного опыта пришли к схожим выводам: необходимо обеспечить корректность датасетов и прозрачность работы алгоритмов, следует строить механизмы обратной связи в том случае, если модель работает некорректно, и, наконец, рекомендации ИИ не стоит рассматривать как истину в последней инстанции, решение всегда должно оставаться за человеком. При этом обсуждение происходило в традиционном для Data Fusion формате разбора конкретных кейсов. Исполнительный директор Ассоциации больших данных Алексей Нейман посвятил свое выступление особенностям работы рекомендательных сервисов, которые предлагают пользователям нечто на основе анализа или их собственных предпочтений, или базируясь на интересах схожей группы. Но тут возможны проблемы, например, когда предлагается продукт, не соответствующий возрасту или уровню развития, или то, что может быть воспринято как неприемлемое по каким-то другим причинам, как правило, связанным с нарушением принципов отсутствия дискриминации, непредвзятости и равенства. Именно это, по оценке Алексея Неймана, является одним из главных рисков, связанных с работой такого рода систем. Как отмечает Алексей Нейман, чтобы риска избежать, у пользователя должна быть возможность оценить корректность датасета, включая данные о себе самом. Видя объективность этих данных, потенциальный пользователь будет больше доверять работе любого робота. Также необходима обратная связь, иначе до разработчиков просто не дойдет информация о том, что модель работает некорректно. Также необходимо бороться с "накрутками", когда рейтинг ресурса искусственно повышается с помощью ряда приемов. В любом случае, к рекомендациям ИИ нельзя подходить как истине в последней инстанции, конечное решение должно оставаться за человеком. При этом кодекс этики искусственного интеллекта, который разработан группой российских компаний, как подчеркнул Анатолий Нейман, уже не ограничивается базовыми принципами и постоянно дополняется. Лидеры рынка формируют свои модели и идут к ним разными путями. И они формируют отраслевые стандарты, тем самым создавая модели, которым доверяют. При этом этики разработки уже недостаточно, необходимо формировать этику внедрения и использования ИИ, что является более сложной и масштабной задачей. Руководитель Группы регуляторной поддержки экосистемы ПАО "МТС" Елена Сурагина назвала этическое регулирование важной задачей, входящей в сферу корпоративной социальной ответственности. Но при этом ее невозможно решить методами традиционного отраслевого или государственного регулирования. Тем не менее, существуют методики, позволяющие оценить влияние ИИ на общество. Как правило, речь идет о перечне вопросов, позволяющих выявить те или иные возможные отрицательные последствия. Обычно таких вопросов около 30, они позволяют оценить корректность работы алгоритмов и данных. При этом ответы на эти вопросы необходимо получать трижды: на стадии проекта, на стадии запуска и после запуска. Руководитель лаборатории инноваций компании "Норбит" Дмитрий Демидов поделился результатом анализа проектов, связанных с внедрением анализа поведения сотрудников в российских компаниях. В их ходе вопрос этики тесно связан с соответствием законодательству. В частности, как оказалось, для успешного решения поставленных задач вполне достаточно тех данных о сотрудниках, которыми уже располагают кадровые службы. Никаких дополнительных данных собирать не требуется. Часто не требуется и чтение электронных писем, что также рассматривают как нарушение законодательства. И в целом доверять ИИ принимать решения нельзя, это могут сделать только люди, хотя давать подсказки на основе анализа больших массивов данных ИИ вполне может. Но, опять же, корректность работы "роботов" должны оценивать лица, принимающие решения. Эксперт Фонда "Сколково" Сергей Морозов также назвал основными проблемами формирование датасетов и непрозрачность работы алгоритмов. Также разработка должна проходить в соответствие с устоявшимися правилами. Мерить "на глаз" недопустимо. Именно с этим были связаны многие проблемы с работой диагностических систем выявления поражений легких коронавирусной инфекцией, которые давали недостаточную точность. И тут важна роль стандартов, которые создают единые правила и экосистемы, которые работают в любой отрасли. Также Сергей Морозов назвал одной из главных насущных задач обучать людей работать с ИИ и другими аналитическими системами. Ссылка на источник


  • Сообщений: 103416

  • Пол: Не указан
  • Дата рождения: Неизвестно
  • Пожалуйста Войти или Регистрация, чтобы присоединиться к беседе.

    Похожие статьи

    ТемаРелевантностьДата
    Samsung продолжает оставаться бесспорным лидером9.15Понедельник, 28 сентября 2015
    Разработка ОПК позволит городам оставаться на связи в условиях ЧС9.05Вторник, 05 июля 2016
    Почта остается с человеком9.01Понедельник, 24 июня 2019
    Tele2 позволит клиентам оставаться на связи при нулевом балансе8.96Среда, 05 сентября 2018
    Эксперт: большинство IT-специалистов после возвращения не хочет постоянно оставаться в РФ8.86Вторник, 11 июля 2023
    Технология распознавания речи Microsoft сравнялась по точности с человеком8.63Среда, 19 октября 2016
    Президент «Атол» признан Человеком года в сфере e-commerce8.63Понедельник, 13 ноября 2017
    В Роскачестве объяснили, как можно следить за человеком через смартфон8.63Среда, 20 января 2021
    Российское ПО должно совместиться с отечественными ОС и процессорами8.57Среда, 28 июня 2023
    "Гуру дизайна" Джонни Айв официально стал третьим человеком в Apple8.54Пятница, 03 июля 2015

    Мы в соц. сетях