Il va les rentabiliser parce que ses revenus vont atteindre 100G$/an à partir de 2030, contre 20G$ aujourd'hui (en passant, par "annualisés", ce qu'il veut dire c'est que s'il prend la meilleure semaine de 2025 et la multiplie par 52, il arrive à 20G$, sinon il ne les a déjà pas, ses 20G$…).
J'ai donc regardé de quel niveau de croissance il a besoin pour arriver à 100G$/an en 2030.
La réponse, c'est 50%/an de croissance des revenus. Vous avez le droit d'y croire: c'est une startup dans un domaine en pleine expansion. Bon, les derniers chiffres disent plutôt que ça ralentit déjà, mais supposons que c'est parce que les gens qui le font ralentir sont tous cons, et les décideurs éclairés vont relancer leurs investissements en IA dans leurs organisations respectives.
Je prends donc 50% de croissance et je poursuis au-delà de 2030.
En 2033, soit 8 ans à partir de maintenant, je ne suis encore qu'à 985G$ de revenus cumulés (20G$ en 2026, puis +50% par an, on arrive là). Il faut attendre 2034 pour dépasser ces 1.4T$, avec 1.5T$
Je suppose qu'après les 8 prochaines années, il faudra réinvestir, parce qu'il ne va pas pouvoir tourner en roues libres, n'est-ce pas? Et il y a des chances que les investissements soient encore plus gros, parce que les besoins en capacité de calcul augmentent avec la complexité des modèles.
Il faut pourtant attendre 2035 pour avoir un revenu cumulé de 1.4T$.
Et là, on n'a pas encore eu le moindre profit, mais on a eu 50% de croissance des revenus, sans discontinuer. Je suis à 500G$ de revenus en 2035, vous m'expliquerez qui paie ça et comment, sachant qu'en 2024, Apple ne ramenait "que" 391G$ et avec 500G$, ce serait la 4ème boite du monde en revenus.
Là vous devriez me dire "Mais Maclag, bien sûr qu'on sait que les revenus ne vont pas croître indéfiniment, mais si on arrive à un point où les revenus dépassent les dépenses, ce n'est plus qu'une question de temps avant que les investissements soient rentabilisés!".
Et là je vous répondrai que si le ROI est de quelques % après 20ans d'existence, c'est un investissement de merde! On finance les startups pour avoir des retours à 2 chiffres. Si c'est pour faire moins, on mise sur les boites existantes.
Là ils parient sur une boite qui va faire 50% de croissance pendant des années puis devenir l'une des plus grosses boites du monde en revenus, et ce sera le strict minimum pour qu'elle devienne tout juste rentable.
Est-ce que j'ai raté un truc très gros, ou est-ce ces investisseurs n'ont personne qui sache utiliser un tableur pour faire leurs calculs?
Moi je parierais plutôt que les investisseurs sont en panique mais ne savent pas comment sortir leurs billes sans tout perdre.
Ah, et pour ceux qui y croient encore malgré tout: je n'ai pas inclus les investissements qui ont déjà été faits dans la boite, mais sans compter les petits tours de passe-passe de cette année (les investissements circulaires) on est largement sous les 100G$, c'est presque du bruit arrivé là… Les investissements de cette année, je vais être gentil et supposer qu'ils sont inclus dans les 1.4T$.
Tu oublis qu en 8 ans, il y a 2 ou 3 générations de hardware. Ils n'utilisent pas encore de puces optimisés pour des quantisations 8 bits ou moins. On parle de diviser par 10 le cout.
Ensuite niveau revenu, leur but est de faire l équivalent de travaux de freelance, qui se paye 200 à 1000€ par… jour.
Ensuite niveau revenu, leur but est de faire l équivalent de travaux de freelance, qui se paye 200 à 1000€ par… jour.
Ça c'est leur but. Ils dépensent énormément pour y arriver, en pompant toutes les donnée d'Internet au passage. En attendant les chatbots hallucinent toujours, et faire ce type de travaux ça nécessite une expertise qui peut aller au delà de ce qu'on peut pomper sur le net, des données pas publiques par exemple. C'est très compliqué d'assurer une expertise sur tous les sujets … parce que faut faire des vérifications de fiabilité poussées sur tous les sujets. Donc ça nécessite aussi pas mal de boulôt humain. Et comment tu vérifies la fiabilité des données d'apprentissage et générées sans ces experts pointus à 1000€/j ? La question reste ouverte, mais moi je parie sur le fait qu'il faille à un moment ou un autre les payer. On est pas sur des domaines comme les échecs ou tu peux faire jouer des machines contre elles même, on est sur des domaines complexes avec des données pas simples à saisir, générer ou vérifier.
Pourquoi être plus exigeant avec les IA qu'avec les humains ?
C'est pas la question, si tu parles de remplacer des experts t'as surtout besoin de faire aussi bien qu'eux. Si ils sont payés cher c'est qu'on a besoin d'une expertise pas si commune et qu'on est prêt à payer non ? Sinon un employé lambda suffirait. Si tu dis "c'est ces gens qui sont remplaçable donc ça va être facile à rentabiliser" tu supposes que ce que pond l'IA est suffisant comme qualité. Je dis que valider ça en général n'a rien de simple, surtout dans tous les domaines d'expertises potentiels.
Selon la quantité de travail demandé tu peux être capable de juger ce qui est fournis (ça marche ou pas). C'est d'ailleurs beaucoup plus facile de se mettre à ce niveau pour faire l'apprentissage, plutôt que de compter sur la validation d'expert du sujet sur des microtaches.
Juste le fait que Sam Altman soit un menteur mégalomane pathologique ? Que les chiffres qu'il balance ne servent aucune réalité sinon celle de tester sa cote de popularité ?
# Je dois être nul en maths…
Posté par Maclag . Évalué à 10 (+11/-0).
Altman demande 1.4T$ sur les 8 prochaines années.
Il va les rentabiliser parce que ses revenus vont atteindre 100G$/an à partir de 2030, contre 20G$ aujourd'hui (en passant, par "annualisés", ce qu'il veut dire c'est que s'il prend la meilleure semaine de 2025 et la multiplie par 52, il arrive à 20G$, sinon il ne les a déjà pas, ses 20G$…).
J'ai donc regardé de quel niveau de croissance il a besoin pour arriver à 100G$/an en 2030.
La réponse, c'est 50%/an de croissance des revenus. Vous avez le droit d'y croire: c'est une startup dans un domaine en pleine expansion. Bon, les derniers chiffres disent plutôt que ça ralentit déjà, mais supposons que c'est parce que les gens qui le font ralentir sont tous cons, et les décideurs éclairés vont relancer leurs investissements en IA dans leurs organisations respectives.
Je prends donc 50% de croissance et je poursuis au-delà de 2030.
En 2033, soit 8 ans à partir de maintenant, je ne suis encore qu'à 985G$ de revenus cumulés (20G$ en 2026, puis +50% par an, on arrive là). Il faut attendre 2034 pour dépasser ces 1.4T$, avec 1.5T$
Je suppose qu'après les 8 prochaines années, il faudra réinvestir, parce qu'il ne va pas pouvoir tourner en roues libres, n'est-ce pas? Et il y a des chances que les investissements soient encore plus gros, parce que les besoins en capacité de calcul augmentent avec la complexité des modèles.
Il faut pourtant attendre 2035 pour avoir un revenu cumulé de 1.4T$.
Et là, on n'a pas encore eu le moindre profit, mais on a eu 50% de croissance des revenus, sans discontinuer. Je suis à 500G$ de revenus en 2035, vous m'expliquerez qui paie ça et comment, sachant qu'en 2024, Apple ne ramenait "que" 391G$ et avec 500G$, ce serait la 4ème boite du monde en revenus.
Là vous devriez me dire "Mais Maclag, bien sûr qu'on sait que les revenus ne vont pas croître indéfiniment, mais si on arrive à un point où les revenus dépassent les dépenses, ce n'est plus qu'une question de temps avant que les investissements soient rentabilisés!".
Et là je vous répondrai que si le ROI est de quelques % après 20ans d'existence, c'est un investissement de merde! On finance les startups pour avoir des retours à 2 chiffres. Si c'est pour faire moins, on mise sur les boites existantes.
Là ils parient sur une boite qui va faire 50% de croissance pendant des années puis devenir l'une des plus grosses boites du monde en revenus, et ce sera le strict minimum pour qu'elle devienne tout juste rentable.
Est-ce que j'ai raté un truc très gros, ou est-ce ces investisseurs n'ont personne qui sache utiliser un tableur pour faire leurs calculs?
Moi je parierais plutôt que les investisseurs sont en panique mais ne savent pas comment sortir leurs billes sans tout perdre.
Ah, et pour ceux qui y croient encore malgré tout: je n'ai pas inclus les investissements qui ont déjà été faits dans la boite, mais sans compter les petits tours de passe-passe de cette année (les investissements circulaires) on est largement sous les 100G$, c'est presque du bruit arrivé là… Les investissements de cette année, je vais être gentil et supposer qu'ils sont inclus dans les 1.4T$.
[^] # Re: Je dois être nul en maths…
Posté par Nicolas Boulay (site web personnel) . Évalué à 4 (+1/-0).
Tu oublis qu en 8 ans, il y a 2 ou 3 générations de hardware. Ils n'utilisent pas encore de puces optimisés pour des quantisations 8 bits ou moins. On parle de diviser par 10 le cout.
Ensuite niveau revenu, leur but est de faire l équivalent de travaux de freelance, qui se paye 200 à 1000€ par… jour.
"La première sécurité est la liberté"
[^] # Re: Je dois être nul en maths…
Posté par thoasm . Évalué à 10 (+7/-0).
Ça c'est leur but. Ils dépensent énormément pour y arriver, en pompant toutes les donnée d'Internet au passage. En attendant les chatbots hallucinent toujours, et faire ce type de travaux ça nécessite une expertise qui peut aller au delà de ce qu'on peut pomper sur le net, des données pas publiques par exemple. C'est très compliqué d'assurer une expertise sur tous les sujets … parce que faut faire des vérifications de fiabilité poussées sur tous les sujets. Donc ça nécessite aussi pas mal de boulôt humain. Et comment tu vérifies la fiabilité des données d'apprentissage et générées sans ces experts pointus à 1000€/j ? La question reste ouverte, mais moi je parie sur le fait qu'il faille à un moment ou un autre les payer. On est pas sur des domaines comme les échecs ou tu peux faire jouer des machines contre elles même, on est sur des domaines complexes avec des données pas simples à saisir, générer ou vérifier.
Et en attendant, le hardware, ça se paye, et pas que pour ces sociétés : https://www.tomshardware.com/pc-components/storage/perfect-storm-of-demand-and-supply-driving-up-storage-costs
[^] # Re: Je dois être nul en maths…
Posté par Nicolas Boulay (site web personnel) . Évalué à 3 (+0/-0).
Pourquoi être plus exigeant avec les IA qu'avec les humains ? Les hommes font aussi des erreurs.
Cela fait longtemps que le web a été aspiré. Il y a un axe de développement qui utilise les simulateurs physiques.
"La première sécurité est la liberté"
[^] # Re: Je dois être nul en maths…
Posté par thoasm . Évalué à 3 (+0/-0).
C'est pas la question, si tu parles de remplacer des experts t'as surtout besoin de faire aussi bien qu'eux. Si ils sont payés cher c'est qu'on a besoin d'une expertise pas si commune et qu'on est prêt à payer non ? Sinon un employé lambda suffirait. Si tu dis "c'est ces gens qui sont remplaçable donc ça va être facile à rentabiliser" tu supposes que ce que pond l'IA est suffisant comme qualité. Je dis que valider ça en général n'a rien de simple, surtout dans tous les domaines d'expertises potentiels.
[^] # Re: Je dois être nul en maths…
Posté par Nicolas Boulay (site web personnel) . Évalué à 3 (+0/-0).
Selon la quantité de travail demandé tu peux être capable de juger ce qui est fournis (ça marche ou pas). C'est d'ailleurs beaucoup plus facile de se mettre à ce niveau pour faire l'apprentissage, plutôt que de compter sur la validation d'expert du sujet sur des microtaches.
"La première sécurité est la liberté"
[^] # Re: Je dois être nul en maths…
Posté par Pol' uX (site web personnel) . Évalué à 5 (+3/-0).
Juste le fait que Sam Altman soit un menteur mégalomane pathologique ? Que les chiffres qu'il balance ne servent aucune réalité sinon celle de tester sa cote de popularité ?
Adhérer à l'April, ça vous tente ?
Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.