• # TLDR; "oui"

    Posté par  (site web personnel, Mastodon) . Évalué à 6. Dernière modification le 17 novembre 2022 à 15:55.

    Je pense qu'il est acceptable de copier juste le chapeau qui est sur la page de téléchargement et en "résumé" au début du papier de recherche:

    We conduct the first large-scale user study examining how users interact with an AI Code assistant to solve a variety of security related tasks across different programming languages. Overall, we find that participants who had access to an AI assistant based on OpenAI's codex-davinci-002 model wrote significantly less secure code than those without access. Additionally, participants with access to an AI assistant were more likely to believe they wrote secure code than those without access to the AI assistant. Furthermore, we find that participants who trusted the AI less and engaged more with the language and format of their prompts (e.g. re-phrasing, adjusting temperature) provided code with fewer security vulnerabilities. Finally, in order to better inform the design of future AI-based Code assistants, we provide an in-depth analysis of participants' language and interaction behavior, as well as release our user interface as an instrument to conduct similar studies in the future.

    En gros, donc la réponse est: oui, ceux qui utilisaient des systèmes d'AI et surtout faisaient confiance en de tels systèmes et croyaient faire du code plus "sûr" faisaient en fait du code moins sûr en général.

    Ça me paraît assez évident et j'avais déjà donné mon avis (j'ai l'impression de coller le lien de ce fil de discussion un peu trop régulièrement ces derniers temps! Ahahah 😅) sur cette étrange tendance à tout miser sur "l'IA" dernièrement, et comme quoi on est carrêment en train de faire du nivellement par le bas et de la baisse de qualité avec des idées foireuses (ou plutôt mal-comprises, car le champs d'étude de l'IA en soit n'est pas une mauvaise chose du tout!). Y en a qui n'ont pas compris que l'automatisation et l'IA avait pour but d'aider les humains en automatisant, simplifiant les tâches bêtes, répétitives ou complexes car techniques (précision, calcul…), pas en réfléchissant à notre place. Surtout que c'est un mensonge, ces systèmes n'ont aucune réflexion, quiconque a un peu étudié des algorithmes d'IA le sait (ou devrait le savoir car s'ils ne l'ont pas compris, alors il y a un autre problème).

    Ensuite c'est plutôt pas mal d'avoir des chiffres et stats pour appuyer ces dires. :-)

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.