
Переписка с ИИ – это улика. А ваши слова могут быть использованы против вас в суде 0
Искусственный интеллект всё глубже проникает в повседневную жизнь — его используют в бизнесе, обучении, медицине, а всё чаще и в личных целях.
Многие обращаются к ИИ как к другу, собеседнику или даже «терапевту»: делятся переживаниями, задают интимные вопросы, раскрывают профессиональные секреты. Однако всё чаще встает вопрос: а безопасна ли такая открытость? Может ли информация, введённая в ChatGPT или аналогичный сервис, в будущем обернуться против вас? Юристы, опрошенные TV3.LV, отвечают: да, вполне.
По словам присяжного адвоката юридической фирмы WALLES Арины Стиврини, правоохранительные органы действительно могут запросить у ИИ-платформ данные переписки в рамках расследования. Особенно это касается уголовных дел: если следствию потребуется информация, суд может выдать соответствующее постановление, и платформа будет обязана сотрудничать.
Юрист Робертс Густс из адвокатского бюро COBALT, специалист по защите данных, уточняет: электронные переписки, включая сообщения с ИИ, уже сейчас могут быть приняты судом как доказательство — наравне с перепиской в мессенджерах, таких как WhatsApp. Сложность заключается в том, чтобы получить такие данные, однако политика конфиденциальности ChatGPT прямо указывает, что платформа взаимодействует с государственными органами при наличии законных оснований.
Важно понимать и то, как именно велась переписка. Была ли она проведена через бесплатный аккаунт, где данные, как правило, используются для обучения модели, или через платный корпоративный профиль? Существуют также «временные чаты» (temporary chats), при использовании которых данные не отправляются на обучение модели. Но и это не гарантирует полной безопасности: OpenAI, как и большинство других технологических компаний, может сохранять пользовательские запросы до 30 дней — в целях безопасности и предотвращения злоупотреблений.
Как поясняет Робертс Густс, такие переписки могут попасть в материалы уголовного дела, если в ходе обыска будет изъят компьютер или смартфон подозреваемого. В гражданских делах вероятность использования переписки с ИИ как доказательства ниже, но не исключена.
Арина Стивриня подчёркивает, что переписка, содержащая признаки преступления, может быть использована в суде независимо от её формы: между двумя людьми, по электронной почте или в ИИ-интерфейсе — если в сообщениях содержится незаконный контент, это может повлечь за собой юридические последствия. В её практике был случай, когда человек был привлечён к ответственности на основании содержания e-mail.
Более того, уже были зафиксированы инциденты утечки данных. Стивриня рассказала о случае, когда стоматолог, запросивший визуализацию материалов по своей специальности, получил в ответ информацию о результатах экзамена по вождению совершенно другого человека. Это свидетельствует о возможных сбоях в системе сегментации данных у ChatGPT.
Проблема конфиденциальности особенно актуальна в бизнесе. Юристы предупреждают: сотрудники нередко вводят в ИИ-инструменты информацию, касающуюся клиентов, проектов или финансовых показателей компании, не осознавая, что тем самым рискуют раскрыть коммерческую тайну. Такие действия могут повлечь за собой не только дисциплинарные меры, но и уголовную ответственность — особенно если нарушение было умышленным или допущено по грубой неосторожности.
Что касается ответственности самих платформ за выдаваемую информацию — например, если ИИ объяснит кому-то, как совершить преступление, — Густс отмечает: юридически это пока остаётся не до конца урегулированной областью, но такие случаи требуют отдельного внимания.
Стивриня напоминает: важно всегда обращать внимание на страну происхождения ИИ-сервиса. Если поставщик находится за пределами ЕС, пользователю стоит учитывать, что правила по защите данных (GDPR) там могут не применяться.
В заключение адвокат подчёркивает: искусственный интеллект — мощный инструмент, но использовать его нужно ответственно. Каждый пользователь должен осознавать риски, связанные с обработкой данных. То, что кажется безобидным запросом, может однажды вернуться к вам с юридическими последствиями.