Lien Pendant qu'on s'interroge sur la sentience des IA...
Conférence SophiaConf du 27 au 29 juin 2022 en présentiel
La 13e édition de SophiaConf arrive les 27, 28 et 29 juin 2022 pour trois jours de workshops techniques, conférences et visites découverte sur les technologies open source, au Campus SophiaTech (Université Côte d’Azur) à Sophia-Antipolis dans les Alpes-Maritimes. Aux côtés d’experts locaux, SophiaConf accueille cette année notamment Google, OVHcloud, GitHub, Red Hat et Marigold pour parler d’open source, d’IoT et de devops.
La France, et notamment la Côte d’Azur, possède de nombreux acteurs et consommateurs du Logiciel Libre, et cette année encore, SophiaConf réunit ces pépites pour partager leurs expériences et savoirs lors de trois jours articulés en après-midis de workshops techniques et soirées de conférences, autour de l’open source, de l’IoT et du devops.
Plus encore, SophiaConf accueille notamment en têtes d’affiche, des évangélisateurs d’entités renommées dans l’univers du Libre : Laurent GRANGEAU, Solutions architect chez Google ; David APARICIO, Ingénieur DataOps chez OVHcloud ; Tugdual GRALL, Solutions Engineer chez GitHub, Christophe DE DINECHIN, Senior Principal Software Engineer chez Red Hat et Benjamin FUENTES, Technical Lead chez Marigold.
SophiaConf 2022 s’adresse à tous les professionnels, étudiants et passionnés d’open source, avec des sessions techniques d’expérimentation de technologies open source pour les initiés, et des conférences pour tous niveaux.
Journal Les AI des GAFAM sont-elles néfastes ?
Récemment, on a beaucoup discuté de si un certain modèle de langage était sentient. Ce qui a été beaucoup moins discuté c'est les biais que ce modèle contient, l'effet que ce modèle a ou peut avoir sur les individus qui interagissent avec lui et sur la société en général.
Timnit Gebru et Margaret Mitchell examinent le problème depuis plusieurs années. En 2020, lorsqu'elles travaillaient chez Google, elles ont publié une étude sur le sujet (avec la professeure Emily M. Bender (…)
Journal Les IA des GAFAM sont-elles sentientes ?
J'ai été intrigué par un lien posté sur ce même site récement pointant vers un document de 21 pages de la division IA de Google.
Il prend la forme d'une échange entre LaMDA, une IA "conversationnelle" de Google et plusieurs ingénieurs de la firme qui travaillent sur cette IA.
Le thème de la discussion porte sur la "sentience" de l'IA, en gros sa capacité à sentir des émotions, à avoir une individualité, une "ame" etc.
J'ai trouvé l'échange très (…)
Lien un scandale chez Google
Lien entretien avec une intelligence artificielle au sujet de sa sentience
Lien DeepMind de Google estime avoir fait une percée en IA qui se rapproche de l'intelligence humaine
Lien CNCDH : Avis relatif à l’impact de l’intelligence artificielle sur les droits fondamentaux (pdf)
Lien Impôts, IA et boulettes
Forum général.hors-sujets Mind Control - Pourquoi et comment vous impose-t-on le transhumanisme ?
Lien L’avènement de la synthèse de programme
Lien [podcast] Algorithmes : les sociétés et les cerveaux à l’épreuve. Avec Bruno Patino
Journal Mind Control - Comment et pourquoi vous impose-t-on le transhumanisme ?
Développement des IAs respectueux de la vie privée : une charte récente
Bonjour,
Dans le cadre du projet OLKi de l’Université de Lorraine, j’ai rédigé avec l’aide de Christophe Cerisara (directeur du laboratoire de TAL au LORIA) une charte sur le développement des Intelligences Artificielles (IA) respectueuses de la vie privée dès la conception (disponible sur HAL)
Cette charte a fait l’objet d’un colloque qui a été ensuite présenté dans un billet récent du Blog Binaire.
Nous pensons que le respect de la vie privée dans le développement des IAs constitue un défi pour la perspective libriste, dans la mesure où l’ouverture des modèles peut permettre des violations de la vie privée et de la protection des données personnelles, qui peuvent parfois être reconstituées à partir des paramètres du modèle.
Nous espérons vivement un retour des développeurs et développeuses libristes. Cette charte n’est pas tant faite pour collecter des signatures que pour lancer un débat nécessaire sur le respect de la vie privée dans le développement des IAs, et sa très difficile opérationnalisation.
Au plaisir de lire vos retours,
Maël Pégny
Postdoc AI Ethics
Carl Friedrich von Weiszäcker Zentrum.
Universität Tübingen