Свежий вывод комитета Палаты общин Великобритании: массовое внедрение искусственного интеллекта в финансовый сектор уже сегодня опережает возможности регуляторов и создаёт риски как для потребителей, так и для всей финансовой системы.
Речь идёт не о далёком будущем. По оценке депутатов, ИИ уже встроен в ключевые процессы банков, страховых компаний и платёжных сервисов — от скоринга клиентов до управления рисками. При этом надзор за такими системами всё чаще строится по принципу «подождём и посмотрим», что, по мнению комитета, может обернуться серьёзным ущербом.
В опубликованных выводах комитет прямо указывает: британские регуляторы — Управление по финансовому регулированию и надзору (FCA), Банк Англии и Министерство финансов — слишком полагаются на старые правила, которые разрабатывались задолго до появления сложных, непрозрачных моделей ИИ.
«Выбирая выжидательный подход к ИИ в финансовых услугах, регуляторы подвергают потребителей и финансовую систему потенциально серьёзному вреду», — говорится в отчёте.
Контекст здесь важен. Британское правительство параллельно продвигает стратегию ускоренного внедрения искусственного интеллекта по всей экономике.
Премьер-министр Кир Стармер ранее заявлял о намерении «турбировать» будущее страны за счёт ИИ. Но, как показывает этот отчёт, скорость внедрения технологий уже превысила способность государства объяснить, кто и за что отвечает, если алгоритмы ошибаются.
Почему регуляторы не успевают за ИИ
Главная проблема — не в самом использовании ИИ, а в отсутствии чётких практических ориентиров. Формально правила защиты потребителей существуют, но компании всё чаще вынуждены догадываться, как они применяются к решениям, принятым алгоритмами, а не людьми.
Ситуация усложняется, когда модели создаются крупными технологическими компаниями, дорабатываются сторонними подрядчиками, а затем используются банками. В итоге ответственность ложится на топ-менеджеров, которые физически не могут полностью объяснить логику работы этих систем.
Это уже не абстрактная дискуссия. Я вижу похожие риски и в криптоиндустрии, где автоматизация, боты и алгоритмы всё чаще принимают решения без прозрачного объяснения логики — об этом я писал ранее в материале о том, как изменение регуляторных правил может резко повлиять на рынок.
По словам сооснователя ZenGen Labs Дермота Макграта, прежняя модель регулирования финтеха работала, потому что регуляторы могли видеть, что именно делают компании, и при необходимости вмешиваться. Искусственный интеллект эту модель ломает: системы становятся слишком сложными и закрытыми.
«Самый большой риск в том, что регуляторная неопределённость начнёт тормозить компании, которые пытаются внедрять ИИ ответственно», — отмечает Макграт.
Что требует парламент и чем это грозит рынку
Комитет призвал FCA к концу 2026 года опубликовать чёткие и исчерпывающие разъяснения: как именно правила защиты потребителей применяются к ИИ и кто несёт персональную ответственность, если алгоритмы причиняют ущерб.
Для меня это звучит как сигнал тревоги не только для банков, но и для всего цифрового финансового сектора, включая криптовалюты и DeFi. Чем сложнее становятся технологии, тем выше риск, что регуляторы начнут реагировать уже постфактум — жёстко и без компромиссов. Примеров, когда отсутствие прозрачности оборачивается системными угрозами, в технологической сфере хватает, включая потенциальные сценарии, описанные в материале об угрозе новых технологий для финансовой инфраструктуры.
Если рекомендации парламента будут проигнорированы, рынок может столкнуться с парадоксом: ИИ есть, он активно используется, но его легальное и управляемое применение окажется под вопросом. А это уже прямой риск для доверия — ключевой валюты любой финансовой системы.
Источник: Decrypt