
Представлен Портал пилотов для представителей финтех-сообщества и участников АФТ
Ассоциация ФинТех провела исследование мнения российского финансового рынка по вопросам развития финансовых технологий. Наши респонденты, среди которых представители банков, страховых компаний, профучастников рынка ценных бумаг, сошлись во мнении, что уже сейчас необходимо разрабатывать регуляторные режимы для инновационных продуктов и решений, в том числе регулирование и стандарты для безопасного и этичного применения алгоритмов искусственного интеллекта (ИИ) в финансовой отрасли. В противном случае технологии будут нести риски для развития рынка.
Интересно, что именно искусственный интеллект стал одной из первых технологий, которые начали использовать представители финансового сектора. Так, в 1986 году APEX (Applied Expert Systems) представила PlanPower, решение на основе алгоритмов для создания финансовых планов для тех, у кого годовой доход составлял более $75 000 в год.
Сейчас финансовые организации успешно используют решения с применением алгоритмов искусственного интеллекта в кредитовании, платежах, маркетинге и продажах. На основе ИИ создаются системы для обнаружения и предотвращения мошеннических действий. Страховые компании рассчитывают стоимость своих продуктов с помощью сложных моделей. Уже ставшие привычными чат-боты и виртуальные ассистенты также функционируют как самообучающиеся алгоритмы. Благодаря технологиям стало возможно создавать персонализированные решения с учётом потребностей и предпочтений каждого клиента. Ещё один пример — составление индивидуальных инвестиционных планов с учётом горизонта планирования, аппетита к риску и других параметров на платформах для инвестирования.
Эксперты прогнозируют, что в течение ближайших пяти лет финансовые организации будут внедрять решения на основе искусственного интеллекта в следующих областях:
По оценкам консалтинговой компании IDC, мировые расходы на системы ИИ к 2024 году достигнут 110 млрд долларов в 2024 году, удвоившись по сравнению с 50,1 млрд долларов в 2020 году. Недавний опрос EY показал, что 64% финансовых учреждений планируют широко использовать технологии ИИ в течение следующих двух лет.
Дело в том, что искусственный интеллект может невольно дискриминировать отдельные группы клиентов. Так, например, алгоритмы, которые применяются для автоматического скоринга, могут отклонять кредитные заявки клиентов на основе их религии, этнической принадлежности, образования или географического положения. Если в наборе данных отсутствует информация о поведении какой-либо группы, то модель будет построена некорректно, а значит и решения, которые принимаются автоматически, будут несправедливыми. Таким образом будут создаваться непреодолимые барьеры для получения финансовых услуг для множества людей.
С одной стороны, использование искусственного интеллекта должно исключить ошибки, возникающие из-за человеческого фактора. Например, при рассмотрении заявки сотрудники банка могут неправильно оценить платёжеспособность заёмщика и отказать ему в предоставлении средств. ИИ при оценке кредитоспособности будет принимать решения, беспристрастно анализируя все возможные параметры. Но с другой, алгоритм может масштабировать одно неправильно принятое решение до невероятных размеров. Это всё та же человеческая ошибка, только возведённая в энную степень.
Ещё одна претензия к технологии заключается в том, что пользователи не знают, что именно происходит с данными, на основе чего принимаются решения, от которых зависит их благополучие.
Именно поэтому во многих странах уже реализуются инициативы, направленные на создание безопасных инновационных продуктов и сервисов. И Россия не исключение, 26 октября ведущие российские компании и научно-исследовательские организации подписали кодекс этики искусственного интеллекта.
Документ устанавливает общие морально-этические принципы для всех, кто использует технологию ИИ. В кодексе говорится, что человеко-ориентированный и гуманистический подход является основным этическим принципом и центральным критерием оценки этичного поведения в сфере ИИ. Компаниям рекомендуется использовать риск-ориентированный подход, ответственно относиться к влиянию ИИ на общество и граждан, обеспечивать комплексный надзор человека за любыми системами ИИ, иметь возможность отменить решения, принимаемые системой, на любом этапе. Также отмечается необходимость информировать пользователей о том, что они взаимодействуют с искусственным интеллектом и дать им возможность предотвратить это взаимодействие. В компаниях, которые присоединились к кодексу, должны быть назначены уполномоченные по этике ИИ.
В целях обеспечения справедливости и недопущения дискриминации компании должны принимать меры для того, чтобы удостовериться, что применяемые ими алгоритмы и наборы данных, методы обработки используемых для машинного обучения данных, при помощи которых осуществляется группирование и классификация данных, касающихся отдельных лиц или групп лиц, не влекут их умышленную дискриминацию.
Для того чтобы обмениваться опытом, компании, использующие ИИ, создадут свод лучших и худших практик решения этических вопросов, и предоставят к нему публичный доступ.
Евросоюз же в апреле этого года представил проект законодательного регулирования искусственного интеллекта. От поставщиков и пользователей систем ИИ требуется соблюдение конкретных правил транспарентности данных, управления, ведения учёта и документации. Среди требований (наряду с установлением стандартов надёжности, точности и безопасности) обязательный человеческий надзор в тех областях, где есть риски, связанные с ограничением доступа потребителей к тем или иным услугам.
Нарушения приведут к штрафам, аналогичным штрафам за нарушение законодательства о персональных данных. В некоторых случаях эти правила также будут применяться к компаниям и за пределами ЕС. Европейские законодатели считают, что этическое регулирование в виде свода норм и правил должно так же неукоснительно соблюдаться, как и стандарты ведения бизнеса. Предложенное ЕС законодательство является наиболее всеобъемлющим по сравнению с нормами, принятыми в других странах.
С 2019 года правительство Великобритании запустило проект «Mandating Security Requirements For Consumer ‘IoT’ Products», целью которого является разработка регуляторных требований к производителям продуктов интернета вещей IoT.
Китай имеет «Пекинские принципы», которые являются этическими рамками, для регулирования того, как должен функционировать искусственный интеллект. В частности, Пекинские принципы гласят, что ИИ не должен использоваться против людей или наносить им вред.
В ряде стран, таких как Сингапур, Гонконг, Великобритания, с рекомендациями по использованию искусственного интеллекта выступают и Центральные банки, указывая как следует управлять связанными с технологией рисками в финансовом секторе.
Главное, к чему стремятся во всех странах, обеспечить прозрачность и объяснимость решений, которые принимаются с использованием искусственного интеллекта. Как лучше этого добиться, с помощью строгого законодательства, которое установит ответственность за любое отступление от правил или добровольного саморегулирования, пока открытый вопрос.
Автор: Никита Ломов, руководитель аналитического отдела, Ассоциация ФинТех
Источник: BIS Journal
Подпишитесь на новости
Спасибо что вы с нами.
Отписаться можно в любое время.