• # Commentaire

    Posté par  . Évalué à 2.

    Merci pour les suites de cette histoire.

    Si je comprends bien, donc le conseil d'administration (au contraire de ce qu'on penserait habituellement) n'a pas révoqué Sam Altman pour de sombres raisons de profit, mais bien par ce que celui-ci ne leur a pas tout dit/menti (il a" manqué de « franchise » et de « transparence » envers eux")1.
    Et 90 % des employés soutiennent donc Sam Altman - dans ses choix stratégiques, j'imagine -, même si cela implique donc qu'il ne soit pas transparent et franc envers eux ? Hum. Il ne me semble pas avoir vue de nuance dans leur soutien.

    La question qui me vient ensuite, c'est quel est exactement l'objectif des "pressés" ? En fait simplement beaucoup de brouzoufs le plus vite possible, ou bien réellement une diffusion et un développement ultra-rapides de l'IA afin de contrer la "menace existentielle" de l'IA, même si je ne vois pas du tout comment fonctionnerait cette stratégie. Si quelqu'un sait, qu'il n'hésite pas à éclairer ma lanterne.


    1. avec à la base des raisons idéologiques/stratégiques sur le développement de l'IA comme singularité technologique 

    • [^] # Re: Commentaire

      Posté par  (site web personnel, Mastodon) . Évalué à 10.

      Perso j'avais trouvé l'article précédent intéressant qui expliquait (sur la fin) qu'OpenAI a une gouvernance historique en organisme à but non lucratif. De ce que j'avais aussi lu ailleurs, cela avait déjà été partiellement remis en cause à un moment donné quand ils ont fait une sous-entité de type entreprise à responsabilité limitée, justement parce que ce fameux CEO qui s'est fait viré voulait pouvoir lever des fonds auprès d'investisseurs (comme toute bonne startup qui veut du brouzouf!) et que la structure à but non-lucratif ne le permettait pas.

      Dans ma lecture de l'article, il me semble lire en sous-entendu que la vision d'Altman, c'était de faire des sous alors que peut-être que ce board est réellement à fond dans leur vision "on a une mission bénéfique pour l'humanité". Cette phrase de l'article précédent souligne un peu cette idée:

      Altman’s efforts to raise money for OpenAI and to turn its offerings into commercial products may have unsettled board members, who saw their responsibility as ensuring that AI is developed safely.

      Enfin dans la lettre au board elle-même, les employés écrivent:

      You also informed the leadership team that allowing the company to be destroyed “would be consistent with the mission.”

      Cela peut choquer bien sûr de premier abords (de s'entendre dire que les décideurs n'auraient aucun problème à tuer l'entreprise pour protéger une "mission"), et clairement les employés prennent cette position comme une preuve d'incompétence du board. Mais en fait, dans le cadre d'une ONG (ce qu'est donc OpenAI en tout premier lieu), et même — soyons fous! — je soutiendrais que ça devrait aussi être le cas pour toute entreprise responsable, ce n'est absolument pas une position insensée. Si on a une mission, ou si tout simplement on veut vivre et travailler en accord avec des principes bienveillants, alors il est tout à fait raisonnable de décider d'arrêter un travail, un produit, voire une entreprise entière, si on estimait qu'elle avait dévié de l'objectif et surtout qu'elle était finalement malsaine, à conséquences négatives et contraire à notre objectif (la "mission").

      Je sais que pour beaucoup, c'est une position dure à comprendre. Le "il faut bien vivre" a la dent dure. Mais pour moi, ce devrait être une base de tout travail. Je refuse de travailler sur quelque chose de négatif pour l'humanité personnellement.

      Est-il possible que ce soit aussi le point de vue de ce board? Surtout que c'est quand même une ONG à l'origine et peut-être tiennent-ils vraiment leur mission à cœur? Par exemple, il se pourrait que Sam Altman ait eu la dent longue et ai vu qu'il était assis sur une vraie mine d'or. De là, il aurait commencé à vouloir faire de plus en plus de partenariats avec les gros de la tech, à obtenir des investissements de plus en plus gros, etc. Tout cela sans se ficher le moins du monde du moindre aspect social et bienveillant de leur technologie?
      Est-ce possible que le renvoi fut une conséquence de ce problème?

      D'ailleurs on peut sentir que les employés, c'est sûrement pareil. Déjà du fait qu'une majorité seraient tout à fait enclin à se retourner pour travailler chez Microsoft sans ciller une fois. Aussi dans leur lettre ouverte, ils qualifient OpenAI de "company" (entreprise) de façon répétitive. Pas une seule fois, ils ne parlent d'ONG à but non-lucratif, il me semble (ou alors j'ai loupé cela), ce qui est tout de même révélateur.

      La plupart d'entre eux sont peut-être plus intéressés par le fait de faire de la R&D informatique intéressante sans se soucier le moins du monde de l'aspect social ou bénéfique de leur technologique. Et aussi par le fait que le succès actuel est réel (et pourrait facilement monter à la tête des personnalités les plus sages par ailleurs), surtout si on prend le facteur financier en compte.

      Ensuite tout cela n'est que théorique (et probablement n'en saurons-nous jamais le fin mot, n'étant pas "à l'intérieur"), mais c'est vraiment ce qui m'est venu à l'esprit en lisant l'article précédent, toute la sémantique entrepreneuriale d'un côté (Altman et employés), quand de l'autre côté ils parlent de "mission" voire même d'autoriser à la destruction de l'entreprise s'il le faut pour préserver la dite mission.

      Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • # la nouvel IA Q*

    Posté par  . Évalué à 1.

    J'ai trouvé un autre article sur les raisons pour lesquels il a été viré. Il semble qu'il avait un nouveau projet qu'il n'avais pas informé tout le monde.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.