GitHub Copilot empieza hoy a entrenar con tu código: lo que tenés que hacer ahora

Hoy, 24 de abril, venció el plazo. Si usás GitHub Copilot Free, Pro o Pro+ y no tocaste una configuración específica en tu perfil, tus datos de interacción ya se están usando para entrenar modelos de IA — por defecto, sin que lo hayas autorizado explícitamente.

Esto no es un rumor ni un thread de pánico en Reddit. Es la política oficial de GitHub, anunciada el 26 de marzo por el Chief Product Officer Mario Rodriguez: a partir de hoy, todo lo que hacés con Copilot en un plan individual se convierte en datos de entrenamiento. Los prompts que escribís, las sugerencias que aceptás o rechazás, los fragmentos de código en tus sesiones activas, los nombres de archivos y la estructura de carpetas visible mientras trabajás — todo.

Qué datos se recopilan exactamente

GitHub aclara que no entrena directamente sobre el código de tus repositorios privados “en reposo”. Pero esa distinción importa menos de lo que parece. Cuando trabajás activamente en un repo privado con Copilot abierto, los datos de interacción de esa sesión — incluyendo el contexto de código visible en pantalla — son parte del juego. Un solo desarrollador usando Copilot en una codebase privada expone los patrones de interacción de todo ese proyecto.

El alcance incluye: inputs y outputs de código, sugerencias aceptadas y rechazadas, contexto de archivos durante sesiones activas, patrones de navegación, mensajes de chat, y señales de feedback (thumbs up/down). Es una superficie bastante amplia.

Quién está afectado y quién no

Los usuarios de Copilot Business y Enterprise no están afectados — sus contratos lo excluyen explícitamente. Los estudiantes y docentes que acceden a Copilot a través de programas académicos también están exentos.

Si estás en Free, Pro o Pro+, estás dentro del pool a menos que hayas hecho opt-out. Y si antes optaste por no participar en la recopilación general de datos de mejora de producto de GitHub, esa preferencia se transfirió automáticamente — no necesitás hacer nada. Pero si no estás seguro, revisá de todas formas.

Cómo hacer el opt-out (tarda 30 segundos)

Entrá a: github.com/settings/copilot/features

En la sección Privacy, desactivá “Allow GitHub to use my data for AI model training”.

Eso es todo. GitHub confirmó que hacer opt-out no afecta el acceso a ninguna funcionalidad de Copilot.

Por qué esto importa más allá de tu configuración personal

El ángulo de gobernanza es el que la mayoría de los developers está pasando por alto. Aunque vos hagas opt-out, ¿qué pasa cuando un compañero de equipo — trabajando sobre el mismo repositorio privado — no lo hace?

Para equipos que manejan datos regulados, algoritmos propietarios o código de clientes, esta no es una pregunta de preferencias personales: es una pregunta de riesgo en la cadena de suministro. La respuesta correcta para la mayoría de las organizaciones de ingeniería es una política de equipo, no un toggle individual.

La señal de fondo: GitHub está haciendo este movimiento porque los datos de interacción de alta calidad — qué aceptan versus qué rechazan los developers reales — son genuinamente escasos y valiosos. Los repositorios públicos como fuente de entrenamiento están prácticamente agotados. Las sesiones de código reales son la próxima frontera. Esa es la lógica de negocio detrás de que la opción venga activada por defecto.

Si ese intercambio es aceptable es una decisión que cada organización debería tomar de forma explícita — no por omisión.

Revisá tu configuración. Y después revisá la de tu equipo.

El link directo: github.com/settings/copilot/features