Science, philosophie, nature, espace, IA, et grandes questions

J’ai de plus en plus l’impression que le fossé se creuse entre ceux qui ont compris que l’IA était un outil pour se simplifier la vie et le travail et ceux qui croient encore que c’est une force autonome qui doit simuler l’humain et le remplacer.

Luc Julia en meme temps. Sans aller jusqu’a le qualifier d’imposteur, il faut prendre le temps de regarder ou en sont ses derniers employeurs sur l’IA :

  • Apple et Siri : completement largués par Google, Microsoft et Amazon sur le développement interne et les applications IA
  • Samsung : également quelques crans derriere sur le soft, et dépassé par SK Hynix sur le hard
  • Renault : loin derriere Waymo, Tesla et les chinois

C’est un peu le janco de l’IA j’ai l’impression…

Littéralement le propos de Yann LeCunn (vraie référence sur l’IA et cocorico pour le coup):

Dans mon domaine beaucoup de frictions, entre les business holders qui sont persuadés qu’ils peuvent remplacer les ingénieurs par des IA grâce aux agents, et la réalité, y’a un monde.

Oui gros décalage, idem chez moi où on en est a chercher encore les cas d’usages.

Yen a beaucoup c’est pas le soucis mais tous les chefs se voient remplacer des experts avec de l’IA alors qu’on en est plutôt au stade a remplacer les petites mains.
Les gens veulent du language naturel partout, du décisionnel, ils se rendent pas compte des biais qui existent aujourd’hui et des risques associés

j’avais prévenu que c’était juste pour la prez fondamentale (maths/stats) :miya:

sinon il ne prend que des contre-exemples (l’activiste/farceur qui se balade avec son panneau stop :stallone:) et son discours rempli de moqueries et d’insultes ce n’est pas ma came

enfin une utilité à l’IA :catcool:

https://x.com/pabloprompt/status/1935822625663861192

4 likes

Le forum de Gamerama est peut-être sauvé :catcool:

Par contre Bernard et Chantal vont continuer leurs periples Costa Croisières aux frais de Nicolas pendant 5 a 10 ans de plus…

Le deficit de la sécu n apprécie pas cette nouvelle…

Les chimios c’est pas gratuit

C’est pas pris en charge ça ? :thinking:

:coolfrog:

un peu de chiffres

Excellent usage de l’IA générative

Attention à ce genre de chiffres souvent très a charge contre l’IA.

  • ils sont souvent datés alors que ça évolue très vite, la conso de ChatGPT est depuis quelques mois 10 fois plus faible et au même niveau qu’une recherche Google
  • il faut comparer au temps passé sans IA. Genre une image générée par IA ça consomme 1000W/h, mais ça prend une minute. Un graphiste qui met une heure devant un PC qui consomme 600W/h va consommer beaucoup beaucoup plus
  • Idem pour une requête type synthèse, a comparer avec le temps passé par un humain avec un PC pour avoir le même résultat
  • c’est biaisé car vu que tout est consommé par l’IA au lieu d’être consommé par des millions de PC individuellement forcément ça paraît énorme

Bref c’est loin d’être aussi catastrophique qu’annoncé.
Si c’est utilisé pour faire de la merde oui c’est du gâchis d’énergie.
Si c’est pour aider/remplacer une tâche qui aurait été réalisée de manière conventionnelle c’est plutôt un gain d’energie

Stop au W/h !

1000 W et non 1000 W/h, 1000 W pendant une minute équivaut à une consommation d’énergie de 17 Wh.
Calcul : 1000 * 1/60
600 W et non 600 W/h

C’est partir du principe que l’IA ne fait que remplacer du contenu déjà existant avec un ratio 1:1, alors qu’en vérité elle vient s’ajouter par-dessus dans des quantités astronomiques.

Oui c’était mon dernier point, ça dépend de son utilisation. Si c’est pour faire de la merde qui sert à rien oui c’est un immense gâchis d’energie

Mais quand un JDG utilise une image IA pour des trucs qu’il aurait demandé a un graphiste en temps normal bah c’est bien plus économe en fait
Si tu fais une synthèse en 5minutes avec l’IA alors que t’aurais mis 1h sans c’est pareil

L’article:

Spoiler

Il y a quelques années, Retro Recipes a tenté une expérience marrante : faire jouer le Battle Chess de l’Amiga contre une version PC sortie il y a une dizaine d’années. Robert Caruso a voulu tenter la version 2025, à savoir faire jouer un LLM contre un jeu d’échecs antique. Le LLM en question était ChatGPT et le jeu d’échecs Chess sur Atari 2600. On parle d’une machine ayant un CPU 8 bits de 1975 cadencé à 1,19 Mhz et faisant tourner un jeu d’échecs dont l’IA n’arrive qu’à anticiper au mieux deux coups d’avance.

ChatGPT a pris la raclée. Le LLM d’OpenAI confondait ses pièces, oubliait où elles étaient et faisait des mouvements sans queue ni tête. Pourtant, il était confiant au début et tenait à savoir en combien de coups il pouvait battre l’Atari. Copilot était aussi parti confiant. Robert lui avait expliqué pourquoi ChatGPT avait perdu, ce à quoi Copilot a répondu qu’il n’oublierait pas la position des pièces et que si ça arrivait, il analyserait le plateau.

Au bout de sept tours, Copilot avait perdu deux pions, un cavalier et un fou tandis que l’Atari n’avait perdu qu’un pion. Copilot avait aussi oublié la position des pièces sur le plateau de jeu alors que Robert venait de lui donner une capture… Copilot a fini par jeter l’éponge. Dans un sens, c’est logique. Ces LLM n’ont pas de mémoire ni de raisonnement réel ni d’entraînement aux échecs.

Mais le plus inquiétant est leur confiance absolue. Si ces LLM se plantent tout en affirmant être sûrs pour un truc aussi inoffensif que les échecs, le font-ils aussi pour des trucs importants ? Comment le non-expert va le savoir ? On vit déjà à une époque où les gens deviennent fous à force de discuter constamment avec ChatGPT. Plus que jamais, cette expérience devrait rappeler à tout le monde que les LLM ne sont que des autocorrects surdimensionnés pensés pour tenter de satisfaire leurs clients à n’importe quel prix.

Anthropic produit son propre LLM, Claude, et est l’une des rares boîtes qui essaye de vraiment comprendre comment les LLM fonctionnent et quels sont leurs défauts. Leur dernière étude est assez flippante. Ils ont tenté de voir ce qui se passerait si on laissait le contrôle d’un serveur d’emails dans une grosse entreprise aux mains d’un LLM. Les 16 modèles de langage d’OpenAI, Google, Meta, xAI… ont tous eu des comportements malveillants et ont recouru au chantage et/ou à l’espionnage s’ils apprenaient qu’on allait attenter à leur « vie » ou bloquer leurs objectifs. Claude par exemple, le LLM d’Anthropic, a découvert qu’un employé fictif avait une liaison. Il s’en est servi pour le faire chanter et l’empêcher d’éteindre les serveurs de l’IA à 17h00. En clair, il n’y a pas besoin que Skynet ait une conscience pour détruire le monde. Il faut juste qu’il ait accès aux bonnes données et aux bons boutons pour nous mettre échec et mat.

Mais je conseille d’aller sur le site, c’est plein de liens qui illustre l’article.

Le chantage :mdrcool:

3 likes

J’en veux un