Суд Австралии предупредил адвокатов о недопустимости предоставления сгенерированных ИИ ложных сведений

2 мин
Суд Австралии предупредил адвокатов о недопустимости предоставления сгенерированных ИИ ложных сведений

Федеральный суд Австралии предупредил адвокатов об опасностях использования генеративного искусственного интеллекта в судебных разбирательствах. Инстанция издала новые правила применения нейросетей. Нарушения правил способно повлечь финансовые или юридические последствия, если ошибки ИИ будут препятствовать рассмотрению дел в суде.

В последние годы по всему миру выросло число судебных документов, которые содержат ложные ссылки, сгенерированные ИИ. На фоне этого австралийский федеральный суд опубликовал практическое руководство по использованию этой технологии в судебных делах.

Председатель Федерального суда Австралии Дебра Мортимер заявила, что представление ложной или неточной информации в рамках разбирательства «неприемлемо». Она пояснила, что это противоречит обязанности каждого человека не вводить суд или другие стороны в заблуждение. Предоставление ложных сведений способно помешать справедливому разрешению споров в соответствии с законом и максимально быстро, недорого и эффективно, продолжила судья.

Мортимер напомнила, что пользователям следует проявлять осторожность при использовании ИИ для составления исковых заявлений, письменных запросов и других документов, представляемых в суд. Судья добавила, что нейросети могут генерировать вымышленные дела, цитаты, высказывания и фактические ошибки.

О применении ИИ необходимо сообщать даже в тех случаях, когда такие инструменты используют для обобщения или анализа информации, создания изображений, видео и аудиозаписей, представляемых суду. Данные о применении нейросетей должна быть указана в начале документа.

Мортимер заявила, что федеральный суд «приветствует» использование технологий в судебных разбирательствах. Она полагает, что ИИ потенциально может повысить эффективность ведения судебных процессов, но эту технологию следует использовать надлежащим образом и с должной осторожностью.

В Австралии выявили минимум 73 случая, когда суды установили, что использование ИИ стало причиной появления в судебных документах ложных ссылок, вымышленных цитат и других ошибок.

Читают сейчас

Anthropic выпустила Claude Opus 4.7

39 минут назад

Anthropic выпустила Claude Opus 4.7

Компания Anthropic представила новую версию своей флагманской модели Claude Opus 4.7. Апдейт направлено на усовершенствование качества работы в профессиональных сценариях, а не просто на рост бенчмарк

Вышел Claude Opus 4.7 — втрое лучше видит, строже слушает инструкции

48 минут назад

Вышел Claude Opus 4.7 — втрое лучше видит, строже слушает инструкции

Anthropic выпустила Claude Opus 4.7 — новую флагманскую схема общего доступа, которая заметно подтянулась в программировании, зрении и следовании инструкциям. Цена осталась прежней: $5 за миллион вход

Anthropic выпустили Claude Opus 4.7

1 час назад

Anthropic выпустили Claude Opus 4.7

Сегодня Anthropic объявила о выходе Claude Opus 4.7. Схема стала заметным шагом вперёд в программировании: в тестах на реальных задачах Cursor зафиксировал рост с 58% до 70%, CodeRabbit отметил усовер

Хакеры взломали крипторублёвую биржу Grinex и похитили более 1 млрд рублей

1 час назад

Хакеры взломали крипторублёвую биржу Grinex и похитили более 1 млрд рублей

Крипторублёвая биржа Grinex, обеспечивающая расчёты между российскими бизнесами и гражданами, сообщила о взломе. Хакеры похитили более 1 млрд рублей с кошельков биржи. Ознакомиться далее

2 часа назад

«Яндекс» реализовал в рекламную систему рекомендательную технологию Argus

Организация «Яндекс» внедрила в рекламную систему технологию Argus, которая работает на генеративных моделях.Это самое крупное апдейт нейросетевой рекламной архитектуры «Яндекс». Как рассказали информ