3 часа назад
Суд Австралии предупредил адвокатов о недопустимости предоставления сгенерированных ИИ ложных сведений

Федеральный суд Австралии предупредил адвокатов об опасностях использования генеративного искусственного интеллекта в судебных разбирательствах. Инстанция издала новые правила применения нейросетей. Нарушения правил способно повлечь финансовые или юридические последствия, если ошибки ИИ будут препятствовать рассмотрению дел в суде.
В последние годы по всему миру выросло число судебных документов, которые содержат ложные ссылки, сгенерированные ИИ. На фоне этого австралийский федеральный суд опубликовал практическое руководство по использованию этой технологии в судебных делах.
Председатель Федерального суда Австралии Дебра Мортимер заявила, что представление ложной или неточной информации в рамках разбирательства «неприемлемо». Она пояснила, что это противоречит обязанности каждого человека не вводить суд или другие стороны в заблуждение. Предоставление ложных сведений способно помешать справедливому разрешению споров в соответствии с законом и максимально быстро, недорого и эффективно, продолжила судья.
Мортимер напомнила, что пользователям следует проявлять осторожность при использовании ИИ для составления исковых заявлений, письменных запросов и других документов, представляемых в суд. Судья добавила, что нейросети могут генерировать вымышленные дела, цитаты, высказывания и фактические ошибки.
О применении ИИ необходимо сообщать даже в тех случаях, когда такие инструменты используют для обобщения или анализа информации, создания изображений, видео и аудиозаписей, представляемых суду. Данные о применении нейросетей должна быть указана в начале документа.
Мортимер заявила, что федеральный суд «приветствует» использование технологий в судебных разбирательствах. Она полагает, что ИИ потенциально может повысить эффективность ведения судебных процессов, но эту технологию следует использовать надлежащим образом и с должной осторожностью.
В Австралии выявили минимум 73 случая, когда суды установили, что использование ИИ стало причиной появления в судебных документах ложных ссылок, вымышленных цитат и других ошибок.
Читают сейчас

39 минут назад
Anthropic выпустила Claude Opus 4.7
Компания Anthropic представила новую версию своей флагманской модели Claude Opus 4.7. Апдейт направлено на усовершенствование качества работы в профессиональных сценариях, а не просто на рост бенчмарк

48 минут назад
Вышел Claude Opus 4.7 — втрое лучше видит, строже слушает инструкции
Anthropic выпустила Claude Opus 4.7 — новую флагманскую схема общего доступа, которая заметно подтянулась в программировании, зрении и следовании инструкциям. Цена осталась прежней: $5 за миллион вход

1 час назад
Anthropic выпустили Claude Opus 4.7
Сегодня Anthropic объявила о выходе Claude Opus 4.7. Схема стала заметным шагом вперёд в программировании: в тестах на реальных задачах Cursor зафиксировал рост с 58% до 70%, CodeRabbit отметил усовер

1 час назад
Хакеры взломали крипторублёвую биржу Grinex и похитили более 1 млрд рублей
Крипторублёвая биржа Grinex, обеспечивающая расчёты между российскими бизнесами и гражданами, сообщила о взломе. Хакеры похитили более 1 млрд рублей с кошельков биржи. Ознакомиться далее
2 часа назад
«Яндекс» реализовал в рекламную систему рекомендательную технологию Argus
Организация «Яндекс» внедрила в рекламную систему технологию Argus, которая работает на генеративных моделях.Это самое крупное апдейт нейросетевой рекламной архитектуры «Яндекс». Как рассказали информ