Microsoft столкнулась с критикой из-за «рекламных вставок» Copilot в GitHub
- AlexT
- 31-мар-2026, 11:00
- 0 комментариев
- 4 просмотров

Пользователи GitHub обнаружили необычную проблему: в запросах на слияние (pull requests) начали массово появляться одинаковые вставки с рекомендациями от Copilot. Речь идёт не о единичных случаях — по оценкам, таких примеров уже более 11 тысяч.
Некоторые разработчики заметили, что при использовании Copilot для редактирования или дополнения текста в pull request инструмент не ограничивается правками. Вместе с исправлениями он добавлял блоки с «советами», фактически продвигающими сам Copilot и связанные сервисы.
Один из разработчиков, Зак Мэнсон, рассказал, что его коллега применил Copilot для исправления небольшой опечатки. В результате в описание запроса был автоматически добавлен рекламный текст с упоминанием Copilot и Raycast.
Фраза имела характерный формат с эмодзи и призывом к действию — типичный стиль генерации контента ИИ. Позже выяснилось, что тот же текст встречается в тысячах других pull request на платформе.
Поиск по GitHub показал, что идентичные вставки с формулировкой, начинающейся с «START COPILOT CODING AGENT TIPS», распространились широко. Это указывает на системную работу функции, а не на случайный сбой.
Фактически Copilot начал автоматически добавлять элементы, которые можно расценивать как встроенную рекламу внутри рабочих процессов разработчиков.
В GitHub признали наличие проблемы. Вице-президент по взаимодействию с разработчиками Мартин Вудворд подтвердил, что Copilot действительно мог добавлять подобные подсказки.
По его словам, функция изначально работала корректно в ограниченном сценарии — когда запросы на слияние создавались самим Copilot. Однако после расширения этой возможности на любые pull request поведение стало навязчивым и вызвало негативную реакцию сообщества.
После обратной связи от пользователей функция была полностью отключена.
Несмотря на инцидент, GitHub Copilot остаётся востребованным инструментом. Он помогает разработчикам ускорять работу, находить ошибки и автоматизировать рутинные задачи.
Однако вокруг него сохраняются и спорные моменты. В частности, модели Copilot частично обучаются на коде из публичных репозиториев GitHub, что уже вызывало дискуссии о правах авторов и использовании данных.
Microsoft недавно уточнила правила использования Copilot. Теперь для обучения моделей могут применяться входные и выходные данные, а также фрагменты кода и контекст из GitHub. Это касается пользователей тарифов Free, Pro и Pro+, но не затрагивает корпоративные версии.
На этом фоне ситуация с «рекламными» вставками вызывает дополнительные вопросы. Если подобный контент попадает в обучающие выборки, возникает риск замкнутого цикла:
ИИ генерирует контент → этот контент сохраняется → затем используется для обучения следующей версии ИИ.
Такой процесс может привести к накоплению ошибок и искажений, если не контролировать качество данных.
Инцидент с Copilot показал, насколько чувствительной остаётся интеграция ИИ в профессиональные инструменты. Даже полезные функции могут вызвать негативную реакцию, если начинают вмешиваться в рабочие процессы без явного запроса пользователя.
Хотя проблему оперативно устранили, она стала напоминанием о важности прозрачности и контроля в развитии ИИ-инструментов.