Зарегистрируйтесь и о Вас узнают потенциальные клиенты!

Юрист рассказал о правовых рисках использования нейросети в бизнесе

Ai-2151719592-freepik

Юрист рассказал о правовых рисках использования нейросети в бизнесе

Масштабное внедрение искусственного интеллекта в российском корпоративном секторе начало выявлять обратную сторону технологического прогресса. То, что позиционировалось как инструмент оптимизации и прорывной эффективности, на практике оборачивается юридическими рисками и ощутимыми потерями для бизнеса. Об этом сообщил юрист и правозащитник предпринимателей Антон Ивлев.

По словам юриста, корень проблемы кроется не в самих алгоритмах, а в иллюзии управленцев, что ответственность за действия машины можно делегировать самой нейросети. Слепое доверие технологиям приводит к ошибкам, которые обходятся слишком дорого.

В качестве примера эксперт привел американский случай, когда адвокат доверился ChatGPT и представил в суд заключение с вымышленными ссылками на дела. Итог — крупный штраф и репутационные потери. Аналогичная ситуация произошла с экс-адвокатом Майклом Коэном, который использовал Google Bard. Эти инциденты показали: документ, созданный с помощью ИИ, должен быть проверен человеком, иначе это «профессиональное самоубийство».

«Многие полагают, что машина объективна. Это глубочайшее заблуждение. Алгоритм лишь обрабатывает данные, предоставленные человеком, со всеми нашими стереотипами и предрассудками», — отмечает Ивлев.

Примеры из Британии и США показали дискриминацию по расовому и социальному признаку в автоматизированных системах, а в Евросоюзе (ЕС) впервые запретили использование системы SyRI, которая чрезмерно контролировала получателей пособий. Машина не создала предрассудки — она их усилила и автоматизировала.

Как уточнил Ивлев, главные риски сегодня — внутренние. Сотрудники, работающие с неконтролируемыми ИИ-инструментами, становятся источником угроз. Автоматизация приводит к сокращениям, нарушения процедуры увольнения гарантирует судебные споры, а размывание ответственности за результаты работы нейросети создает новые юридические риски. Кроме того, утечки коммерческой информации через внешние ИИ-сервисы подрывают безопасность бизнеса.

«Искусственный интеллект из технологической инновации превращается в серьезный правовой вызов, требующий не слепого внедрения, а вдумчивого юридического сопровождения. Без четких внутренних регламентов, персональной ответственности сотрудников и трезвой оценки возможностей алгоритмов эйфория от прогресса неизбежно сменится горечью от судебных издержек. Сегодня главная задача любого руководителя — не гнаться за трендами, а выстроить систему, в которой машина остается эффективным инструментом, но окончательное решение и полную ответственность всегда несет человек», — заключил Ивлев.

Источник: "Известия"

Изображение: freepik.com

Разделы: бизнес и финансы, риски, нейросети и Право

Дата: 16 октября 2025, четверг 09:44

Ваша компания

Зарегистрируйтесь и о Вас узнают потенциальные клиенты!
Cообщить о неточности
Карта сайта →
Финансы
Разделили бизнес, а налоговая попыталась сложить его обратно
Банки
Лизинг
Инвестиции
Страхование
Господдержка
Помощь бизнесу
1. Открыть бизнес
2. Выбор помещения
3. Эффективная реклама
4. Подбор аутсорсинга
5. Господдержка
6. Уплата налогов
7. Поиск кадров
8. Юридическая помощь
Организации
Добавить свою
Новости компаний
Товары и услуги
Добавить товар
Добавить услугу
Тендеры
Обучение
Центры проф. обучения
Новости
О портале
Возможности сайта
Реклама на сайте
Контактная информация
Ваш кабинет
Зарегистрируйтесь и о Вас узнают потенциальные клиенты!
© 2009—2025  Единый республиканский бизнес-портал
О портале | Контактная информация | Реклама на портале | Правила пользования |
Сделано в «Техинформ» Уфа
Информация на сайте не является публичной офертой