GitHub ha lanzado una nueva herramienta llamada GitHub Copilot, que genera automáticamente el código basado en el contenido del archivo actual y la ubicación actual del cursor.
Desde luego, no es la primera herramienta de síntesis de programación «impulsada por la IA». La búsqueda semántica de código en lenguaje natural de GitHub de 2018, demostró encontrar ejemplos de código utilizando descripciones sencillas en inglés. Tabnine ha proporcionado una finalización de código similar impulsada por la IA durante algunos años.
El hecho de que Copilot esté entrenado en código disponible públicamente, bajo una variedad de licencias, ha llevado a mucha discusión sobre las implicaciones éticas y legales.
La principal preocupación de Copilot es que se basa en una base de código disponible públicamente para generar código nuevo. Los autores de la herramienta afirman que no utilizan datos no públicos de repositorios privados, aunque esto puede ser difícil de verificar. Además, existen dudas sobre el funcionamiento de Copilot en la práctica.
La primera pregunta es: ¿Es seguro GitHub Copilot?
GitHub Copilot utiliza el mismo modelo de seguridad que el sitio web de GitHub. Todos los datos enviados por los usuarios se cifran mediante TLS para evitar cualquier acceso no autorizado o manipulación. La clave de descifrado se almacena en una ubicación segura y nunca se comparte con nadie más.
La propia clave de cifrado utiliza una contraseña que sólo GitHub conoce. Además, GitHub Copilot no tiene acceso a ninguno de tus datos personales, como direcciones de correo electrónico o contraseñas. Sin embargo, dado que se entrena con código disponible públicamente, algunas personas podrían sentirse incómodas al utilizarlo porque no quieren que su código privado se utilice como material de entrenamiento para un servicio comercial.