Anthropic запустила средство Code Review для проверки кода, сгенерированного нейросетями

2 мин
Anthropic запустила средство Code Review для проверки кода, сгенерированного нейросетями

Anthropic представила новый средство Code Review в составе Claude Code. Он предназначен для автоматической проверки кода, который разработчики и команды всё чаще создают с помощью AI-инструментов.

В компании отмечают, что распространение так называемого vibe coding — когда разработчик описывает задачу обычным языком, а AI быстро генерирует большие объёмы кода, — ускорило разработку, но одновременно увеличило число ошибок, уязвимостей и плохо понятного кода.

Code Review должен решать эту проблему на этапе pull request. Средство интегрируется с GitHub, автоматически анализирует изменения в коде и оставляет комментарии прямо в pull request, указывая на возможные проблемы и предлагая варианты исправления.

По словам Anthropic, основная цель сервиса — не стилистические замечания, а поиск логических ошибок. Компания сделала акцент именно на тех проблемах, которые действительно могут повлиять на работу продукта и которые важно исправить до попадания кода в основную ветку.

Платформа объясняет свои выводы по шагам: что именно она считает ошибкой, почему это может быть проблемой и как это можно исправить. Для приоритизации используется цветовая маркировка: красный — наиболее серьёзные ошибки, жёлтый — потенциальные проблемы, фиолетовый — issues, связанные со старым кодом или историческими багами.

В основе Code Review лежит мультиагентная архитектура. Несколько AI-агентов параллельно анализируют код с разных точек зрения, после чего отдельный агент объединяет результаты, удаляет дубликаты и расставляет приоритеты.

Инструмент также поддерживает базовый анализ безопасности, а технические лиды могут добавлять собственные проверки в соответствии с внутренними стандартами команды. Для более глубокого security-анализа Anthropic предлагает отдельный продукт — Claude Code Security.

На первом этапе Code Review доступен в режиме research preview для клиентов Claude for Teams и Claude for Enterprise. В компании говорят, что продукт ориентирован прежде всего на крупные организации, где Claude Code уже генерирует большой объём pull request и начинает создавать узкое место на этапе ревью.

Стоимость сервиса зависит от объёма и сложности кода. По оценке Anthropic, одна проверка в среднем обойдётся в сумму от 15 до 25 долларов.

Запускание Code Review отражает новую проблему AI-разработки: генерация кода ускоряется, но тест качества всё чаще становится главным ограничением. Anthropic рассчитывает, что новый средство поможет компаниям выпускать функции быстрее и с меньшим количеством багов.


Ресурс

Больше полезного о нейросетях и технологиях — в нашем канале NH | Новости технологий, AI и будущее. Там публикуем новости AI, интересные сервисы, автоматизацию и реальные способы заработка на нейросетях. А если нужна зарубежная карта для оплаты сервисов — можно почитать здесь, как выпустить её за 10 минут.

Читают сейчас

1 час назад

Анонс лекции по MBSE

Как управлять ИТ-продуктом, когда хаос становится нормой? 27 апреля в 16:00 вместе с экспертом по системной инженерии Антоном Королевым узнаем, как управлять жизненным циклом продукта в условиях посто

Anthropic назвала причины «отупения» Claude Code

1 час назад

Anthropic назвала причины «отупения» Claude Code

Anthropic объяснила, почему части пользователей Claude Code в последние недели казалось, что инструмент стал хуже писать и править исходник. В инженерном разборе компания пишет, что дело было не в сам

В НАСА обнаружили земной грибок, который может «заразить» Марс

4 часа назад

В НАСА обнаружили земной грибок, который может «заразить» Марс

Исследователи выявили вид, способный выживать в условиях радиации, экстремальной жары и в (пока что) имитированной марсианской почве, что ставит под угрозу протоколы, призванные сохранить «незапятнанн

Bambu Lab угрожает судом разработчику, который вернул в форк Orca Slicer отправку заданий на принтеры компании

4 часа назад

Bambu Lab угрожает судом разработчику, который вернул в форк Orca Slicer отправку заданий на принтеры компании

Разработчик Павел Ярчак (Paweł Jarczak) опубликовал форк Orca Slicer, в который вернул функция отправлять задания для печати на принтеры Bamu Lab. Из-за это компания потребовала удалить проект, заявил

ИИ-трек Дурова успели защитить до того, как его стартовали применять другие для монетизации

5 часов назад

ИИ-трек Дурова успели защитить до того, как его стартовали применять другие для монетизации

Кто-то защитил авторским правом ИИ-трек Дурова про цифровую свободу до того, как его начали применять другие для монетизации. Один из блогеров вставил песню в своё видео, но после этого сразу прислали