Microsoft столкнулась с критикой из-за «рекламных вставок» Copilot в GitHub
Техно-жизнь

Microsoft столкнулась с критикой из-за «рекламных вставок» Copilot в GitHub

  • AlexT
  • 31-мар-2026, 11:00
  • 0 комментариев
  • 4 просмотров

Пользователи GitHub обнаружили необычную проблему: в запросах на слияние (pull requests) начали массово появляться одинаковые вставки с рекомендациями от Copilot. Речь идёт не о единичных случаях — по оценкам, таких примеров уже более 11 тысяч.

Что произошло

Некоторые разработчики заметили, что при использовании Copilot для редактирования или дополнения текста в pull request инструмент не ограничивается правками. Вместе с исправлениями он добавлял блоки с «советами», фактически продвигающими сам Copilot и связанные сервисы.

Один из разработчиков, Зак Мэнсон, рассказал, что его коллега применил Copilot для исправления небольшой опечатки. В результате в описание запроса был автоматически добавлен рекламный текст с упоминанием Copilot и Raycast.

Фраза имела характерный формат с эмодзи и призывом к действию — типичный стиль генерации контента ИИ. Позже выяснилось, что тот же текст встречается в тысячах других pull request на платформе.

Масштаб проблемы

Поиск по GitHub показал, что идентичные вставки с формулировкой, начинающейся с «START COPILOT CODING AGENT TIPS», распространились широко. Это указывает на системную работу функции, а не на случайный сбой.

Фактически Copilot начал автоматически добавлять элементы, которые можно расценивать как встроенную рекламу внутри рабочих процессов разработчиков.

Реакция GitHub

В GitHub признали наличие проблемы. Вице-президент по взаимодействию с разработчиками Мартин Вудворд подтвердил, что Copilot действительно мог добавлять подобные подсказки.

По его словам, функция изначально работала корректно в ограниченном сценарии — когда запросы на слияние создавались самим Copilot. Однако после расширения этой возможности на любые pull request поведение стало навязчивым и вызвало негативную реакцию сообщества.

После обратной связи от пользователей функция была полностью отключена.

Контекст: роль Copilot в разработке

Несмотря на инцидент, GitHub Copilot остаётся востребованным инструментом. Он помогает разработчикам ускорять работу, находить ошибки и автоматизировать рутинные задачи.

Однако вокруг него сохраняются и спорные моменты. В частности, модели Copilot частично обучаются на коде из публичных репозиториев GitHub, что уже вызывало дискуссии о правах авторов и использовании данных.

Обновление политики и новые риски

Microsoft недавно уточнила правила использования Copilot. Теперь для обучения моделей могут применяться входные и выходные данные, а также фрагменты кода и контекст из GitHub. Это касается пользователей тарифов Free, Pro и Pro+, но не затрагивает корпоративные версии.

На этом фоне ситуация с «рекламными» вставками вызывает дополнительные вопросы. Если подобный контент попадает в обучающие выборки, возникает риск замкнутого цикла:
ИИ генерирует контент → этот контент сохраняется → затем используется для обучения следующей версии ИИ.

Такой процесс может привести к накоплению ошибок и искажений, если не контролировать качество данных.

Итог

Инцидент с Copilot показал, насколько чувствительной остаётся интеграция ИИ в профессиональные инструменты. Даже полезные функции могут вызвать негативную реакцию, если начинают вмешиваться в рабочие процессы без явного запроса пользователя.

Хотя проблему оперативно устранили, она стала напоминанием о важности прозрачности и контроля в развитии ИИ-инструментов.

img
Привет, я Айтишка!

Самый настоящий сургутский лисенок. Я аватар компании ИТ-Телеком и тут я хочу делиться с вами интересными новостями.

Категории сайта
Календарь
«    Апрель 2026    »
ПнВтСрЧтПтСбВс
 12345
6789101112
13141516171819
20212223242526
27282930 
Лучший поисковик кто?