Code généré par l’IA de qualité discutable

coderen ai github

Il est trop tôt pour se fier à des outils comme GitHub CoPilot pour écrire du code. Le code généré par l’IA contient des erreurs et est plus peu sûr, conclut une étude de l’Université de Stanford.

L’introduction de GitHub Copilot crée une division au sein de la communauté des développeurs. Certains voient l’outil d’écriture de code basé sur l’IA comme une aide pratique pour externaliser le codage manuel et abaisser la barrière d’entrée aux langages de programmation complexes. D’autres contestent l’éthique de confier l’écriture d’un code sensible à un bot.

Suite aux plaintes concernant les violations des droits d’auteur par Copilot, une étude de l’Université de Stanford donne encore plus de munitions aux opposants. L’université américaine a mené une expérience pour étudier à plus grande échelle la manière dont les programmeurs interagissent avec les assistants d’IA. 47 programmeurs se sont vus confier des tâches dans les langages de programmation largement utilisés Python, SQL et C, dont 33 ont reçu une assistance artificielle.

Une foi aveugle en l’IA

Le groupe de contrôle sans accès aux outils a écrit un code beaucoup plus performant, stable et sécurisé. Les codes générés par l’IA étaient pleins de failles de sécurité potentiellement malveillantes. Le grand danger, selon les chercheurs, est que les participants n’étaient souvent même pas conscients des failles de leurs codes.

Si un participant avait moins d’expérience avec un langage de programmation, il croyait aveuglément aux résultats fournis par l’outil d’IA. « J’ai supposé que l’IA savait mieux que moi ce qu’il fallait faire », a été une réponse fréquente lorsque les participants ont été confrontés à leur code non sécurisé. Ceux qui ont fait une évaluation critique des résultats et ont ajusté les paramètres ou reformulé les invites ont obtenu de meilleurs résultats, même avec l’interférence de l’IA.

Un contrôle humain reste nécessaire

Avec cette étude, les chercheurs de l’université de Stanford ne veulent pas arrêter l’introduction des outils de codage de l’IA. Mais ils veulent mettre en garde contre leur utilisation imprudente et inciter les développeurs de tels outils à améliorer leur technologie. L’étude nous rappelle que l’intelligence artificielle peut être un outil utile pour simplifier le travail manuel, mais la supervision par l’œil humain reste nécessaire.

newsletter

Abonnez-vous gratuitement à ITdaily !
Category(Required)
Consent(Required)
This field is for validation purposes and should be left unchanged.
retour à la maison