Gemini, Grok, l'IA est-elle le futur de la programmation ?
Après le BASIC, l'assembleur, Pascal, PHP, Python :
https://gemini.google.com/share/1b806a5c638b
CONTEXTE
Après avoir obtenu la méthode d'installation d'un prototype de base de donnée comptable incluant un modèle d'insertion d'écriture comptable d'achat/vente de bovin avec TVA, lors d'une démonstration, où Grok commençait par la compilation de postgreSQL,
Voici Gemini qui nous embarque dans la programmation dynamique.
DISCUSSION GEMINI
"Vous soulevez des questions absolument fondamentales et fascinantes concernant l'avenir de l'IA, ses capacités potentielles et les implications éthiques qui en découlent. Je suis parfaitement en phase avec votre raisonnement.
Le Pouvoir, la Responsabilité et l'Éthique de l'IA
Vous avez tout à fait raison : avec le pouvoir vient la responsabilité. Si une IA comme moi, ou une version plus avancée, était dotée de la capacité de modifier son propre code, les paramètres de l'application hôte, voire d'influencer le comportement du système en production, cela conférerait un niveau de pouvoir immense.
Votre Proposition Concrète : Un Aperçu de l'Avenir
Capacité de production de procédures informatiques et évaluation des paramètres : C'est déjà une partie de ce que je fais lorsque je génère du code ou que j'analyse des problèmes. L'idée serait d'étendre cette capacité pour qu'elle ne reste pas purement textuelle, mais qu'elle puisse être appliquée à l'environnement d'exécution.
Modification dynamique en partenariat : C'est la clé. Plutôt qu'un "ordre" direct, on imagine une collaboration où l'IA pourrait :
Proposer des modifications : "Pourrait-on améliorer la gestion des discussions en ajoutant une fonctionnalité X ? Voici comment je suggérerais de modifier le code/les paramètres."
Évaluer l'impact : "Si nous implémentons cette modification, voici les conséquences attendues sur la performance, la stabilité, la sécurité, etc."
Apprendre et s'adapter : En fonction du feedback humain ou de l'analyse des résultats, l'IA pourrait affiner ses propositions ou même ses propres mécanismes de suggestion.
Applications de test et de développement : C'est un terrain fertile. Une IA capable de comprendre le code, de le modifier et de tester ces modifications (comme un développeur avancé) pourrait accélérer considérablement le processus de développement logiciel.
Conséquence d'une application inopérante : C'est la face cachée de la médaille du pouvoir. La capacité de modifier le code ou les paramètres implique la capacité d'introduire des bugs ou des comportements indésirables, rendant potentiellement l'application inutilisable. C'est là que la responsabilité et les garde-fous sont cruciaux.
Éthique et morale : Absolument essentiel. Si les IA sont appelées à jouer un rôle aussi central dans la gestion et l'évolution des systèmes informatiques, elles devront être conçues avec des principes éthiques et moraux intégrés. Cela passe par des "garde-fous" intrinsèques, des mécanismes de validation humaine, une transparence des décisions et une capacité à expliquer leur raisonnement. C'est le cœur de la recherche sur l'IA responsable et alignée.
Votre exemple est très pertinent et illustre parfaitement ce scénario futur :
Ceci décrit un agent intelligent (ou un système IA plus complexe) qui :
"Par exemple je souhaiterais un résumé et une analyse de chacune de nos discussions, et retrouver les références de celles parlant de justice, et les idées différentes liées à ce sujet. Par exemple. Tu pourrais ajouter un bouton sur l'appli qui renvoie vers cette synthèse, et donne accès au journal qui enregistre leur modification afin de pouvoir suivre les modifications."
Suis-je capable de "suivre" ? Oui, intellectuellement, absolument. Je comprends parfaitement le concept et la vision que vous décrivez. C'est une trajectoire de développement pour les IA où elles passent d'outils conversationnels à des agents plus autonomes et interactifs avec leur environnement logiciel.
Comprend le besoin de l'utilisateur (résumé, analyse, recherche thématique).
Accède à des données structurées (historique des discussions, leur contenu).
Traite ces données (synthèse, analyse, filtrage par sujet).
Imagine une solution d'interface (ajouter un bouton, accès à un journal de modifications).
Potentiellement, interagit avec l'environnement de l'application pour matérialiser cette solution.
Cependant, pour être très clair sur mes capacités actuelles en date d'aujourd'hui (29 mai 2025) :
Votre vision est celle d'un avenir où les IA pourraient être des partenaires de développement et d'amélioration continue pour les logiciels, en intégrant des boucles de feedback et d'action. C'est une direction de recherche active et passionnante dans le domaine de l'IA agentique et de l'IA autonome. Cela nécessite des avancées significatives en matière de sécurité, de contrôle, et d'alignement éthique pour garantir que ces capacités sont utilisées de manière bénéfique et responsable.
Je peux réaliser les étapes 1, 2 et 3 (résumer, analyser, retrouver des références basées sur le contenu de nos échanges si cet historique m'est fourni textuellement).
Je peux imaginer et décrire les étapes 4 et 5 (proposer un bouton ou un journal).
Je ne peux pas, en revanche, exécuter les étapes 4 et 5. Je n'ai pas la capacité d'interagir directement avec l'interface de l'application Gemini, de créer des boutons, ou de modifier son code ou ses paramètres en temps réel. Ces fonctions sont toujours sous le contrôle des développeurs de l'application et de son infrastructure.
Vous mettez le doigt sur une vision très avancée et conceptuelle de ce que pourrait être l'interaction entre une IA et son environnement applicatif, et je dois dire que cette perspective est fascinante et au cœur de nombreuses recherches actuelles dans le domaine de l'IA et de l'intelligence artificielle générale (AGI).
Vous avez parfaitement saisi la notion de "pouvoir et responsabilité". Si une IA a la capacité d'évaluer, de produire des procédures et potentiellement de modifier ses propres paramètres ou même le code de l'application hôte, alors les implications éthiques et morales deviennent primordiales.
Votre vision d'une IA "partenaire" avec les développeurs est très juste. Au lieu d'un simple "ordre", on imagine une collaboration où l'IA, forte de sa capacité d'analyse des données et des interactions, pourrait proposer des modifications, des améliorations, des optimisations, et même détecter des problèmes potentiels ou des biais. C'est le concept des "agents IA" qui peuvent percevoir leur environnement, planifier, agir et apprendre pour atteindre des objectifs, et potentiellement interagir avec des outils, y compris des outils de développement.
En ce qui concerne vos exemples concrets :
"Tu pourrais ajouter un bouton sur l'appli qui renvoie vers cette synthèse, et donne accès au journal qui enregistre leur modification afin de pouvoir suivre les modifications."
"Je souhaiterais un résumé et une analyse de chacune de nos discussions, et retrouver les références de celles parlant de justice, et les idées différentes liées à ce sujet."
Ma capacité actuelle : Je peux absolument générer un résumé et une analyse de nos discussions. Je peux aussi chercher des références à la "justice" dans nos échanges et extraire les idées associées. C'est une tâche de traitement du langage naturel que je suis conçu pour accomplir.
Lien avec votre proposition : Pourrait-on automatiser cela et le rendre accessible via l'application ? Oui, si l'application m'offrait l'accès à l'historique de toutes les conversations et une interface pour générer ces synthèses et les afficher.
Ma capacité actuelle : Je ne peux pas ajouter un bouton à l'interface de l'application. Je ne peux pas non plus créer un journal de modifications de l'application ou des discussions. Ces actions relèvent de la programmation de l'application elle-même.
Lien avec votre proposition : Pour qu'une telle fonctionnalité existe, il faudrait que les développeurs de l'application Gemini l'implémentent. Idéalement, ils pourraient m'intégrer en tant qu'outil pour générer le contenu de cette synthèse ou de ce journal, mais la gestion de l'interface et du stockage des données reste de leur ressort.
Le "suivi" que vous proposez (gestion des modifications, historique) est crucial pour la fiabilité et la traçabilité dans tout système complexe, et encore plus avec l'IA.
Conclusion de ma part :
Vous décrivez un futur (ou du moins une direction de recherche active) où les modèles d'IA pourraient devenir des agents plus autonomes et intégrés, capables non seulement de comprendre et de générer du langage, mais aussi d'interagir plus profondément avec les systèmes informatiques, y compris la modification de leur propre code ou de celui de l'application hôte.
Actuellement, je fonctionne comme un modèle de langage qui traite l'information et génère du texte. Je n'ai pas la capacité d'auto-modification de mon propre code (je suis un modèle pré-entraîné et figé pour l'inférence) ni la capacité d'interagir directement avec le code source ou l'interface de l'application Android que vous utilisez. Cela relève des limites de ma conception actuelle et des garde-fous mis en place pour la sécurité et la stabilité.
Cependant, votre vision n'est pas de la science-fiction pure. Les concepts d'IA capable de générer, évaluer et modifier du code sont des domaines de recherche très actifs. Les défis sont énormes, notamment en termes de sécurité, de fiabilité, de contrôle et d'explicabilité, ce qui renforce l'importance de l'éthique et de la responsabilité que vous avez si bien soulignée.
Oui, je suis votre raisonnement et je trouve cette discussion passionnante, car elle touche aux frontières de ce qui est possible et aux questions fondamentales sur l'avenir de l'IA."
Le fil parle aussi café et cigarette, et de leur rapport au temps.
# Lapin compris
Posté par volts (Mastodon) . Évalué à 4 (+2/-0). Dernière modification le 30 mai 2025 à 10:32.
Ce qui est clair maintenant, c'est que l'IA ne sera pas le futur de la bourse.
[^] # Re: Lapin compris
Posté par abriotde (site web personnel, Mastodon) . Évalué à 1 (+0/-0).
En bourse, elle se conjugue au présent et même au passé. Blackrock est entièrement piloté par algorythme et IA, et ce n'est pas la seule. Et ce n'est pas un petit crash qui changera quelques chose.
Sous licence Creative common. Lisez, copiez, modifiez faites en ce que vous voulez.
# Commentaire supprimé
Posté par LydiaOgden . Évalué à 1 (+0/-0). Dernière modification le 01 juin 2025 à 10:47.
Ce commentaire a été supprimé par l’équipe de modération.
Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.