24 февраля 2026 г.
Anthropic обвинила три китайские ИИ-компании в создании фейковых аккаунтов с Claude для улучшения собственных моделей
Компания Anthropic обвиняет три китайские компании, занимающиеся разработкой ИИ, в создании более 24 тысяч фейковых аккаунтов с использованием модели Claude AI для улучшения собственных моделей. Читат

23 февраля 2026 г.
Красивый исходник усыпляет бдительность: Anthropic выяснила, когда пользователи перестают проверять ИИ
Anthropic опубликовала AI Fluency Index — первый количественный замер того, насколько грамотно люди работают с ИИ. Компания проанализировала 9 830 анонимизированных диалогов с Claude за неделю в январ

23 февраля 2026 г.
Anthropic: DeepSeek, Moonshot и MiniMax тайно обучали свои модели на ответах Claude
По заявлениям Anthropic, они обнаружили, что три китайские AI-лаборатории — DeepSeek, Moonshot и MiniMax — массово выкачивали ответы Claude, чтобы обучать на них свои модели. Суммарно они сгенерировал

22 февраля 2026 г.
Anthropic обвалила акции Cloudflare и CrowdStrike, представив Claude Code Security
Рынок кибербезопасности отреагировал падением акций на новость о выходе инструмента Claude Code Security. По сообщению SiliconANGLE, акции CrowdStrike и Cloudflare просели примерно на 8%, поскольку ин

21 февраля 2026 г.
Новый DeepSeek Moment: как Anthropic обрушила акции кибербезопасности
Anthropic — частная компания с оценкой $380 млрд, которая даже не торгуется на бирже, — одним блог-постом устроила распродажу в секторе кибербезопасности. 20 февраля организация анонсировала Claude Co