


Published in IA, Tech
Image credit by Argo
Sophie
Les 8 principes fondamentaux pour l'avenir de l'intelligence artificielle
Dans une série d'entretiens menés par Marcus Weldon pour Newsweek, trois experts en intelligence artificielle (le roboticien Rodney Brooks, le neuroscientifique David Eagleman et l'innovateur Yann LeCun) ont défini huit principes fondamentaux pour l'avenir de l'IA. Ces principes abordent notre tendance à anthropomorphiser l'IA, la nature multidimensionnelle de l'intelligence, les limites des modèles actuels qui manquent de raisonnement profond, l'insuffisance du langage comme seule base d'apprentissage, la vision d'une société composée de multiples systèmes d'IA spécialisés plutôt que d'une IA omnisciente, la hiérarchie future où les machines resteront au service des humains malgré leur puissance, la surestimation du pouvoir de l'intelligence pure, et la nécessité de développer des systèmes prévisibles alignés sur nos valeurs humaines diverses. Ces principes offrent une feuille de route pragmatique pour un développement responsable de l'IA, privilégiant l'augmentation des capacités humaines plutôt que leur remplacement.
Vous vous souvenez des trois lois de la robotique d'Asimov ? Ces règles qui disent qu'un robot ne peut pas blesser un humain, doit obéir aux ordres et doit protéger sa propre existence (tant que ça ne contredit pas les deux premières lois) ? Eh bien, on dirait qu'on est en train d'écrire l'équivalent moderne pour l'intelligence artificielle !
Dans une série de discussions super intéressantes publiées par Newsweek, Marcus Weldon (l'ancien boss des Bell Labs) a discuté avec trois pointures dans le domaine : Rodney Brooks (roboticien), David Eagleman (neuroscientifique) et Yann LeCun (un des papas de l'IA moderne). Et vous savez quoi ? Malgré leurs backgrounds différents, ils sont tombés d'accord sur huit principes qui vont probablement façonner l'avenir de l'IA. Voyons ce que ça donne !
Principe 1 : On croit que c'est magique (mais ça ne l'est pas)
Avouons-le : dès qu'un ChatGPT nous sort une réponse intelligente, on est tentés de penser "Wow, cette machine comprend vraiment ce que je dis !" C'est ce que les experts appellent la "pensée magique" - cette manie qu'on a d'attribuer des capacités humaines à nos gadgets dès qu'ils font un truc un peu futé.
Comme le dit Rodney Brooks sans prendre de gants : "Si ça ressemble à de la magie, alors vous ne comprenez pas... et vous ne devriez pas acheter quelque chose que vous ne comprenez pas." Boom !
En gros, on est comme des enfants devant un tour de magie - impressionnés mais complètement à côté de la plaque sur ce qui se passe réellement. Cette tendance à voir l'IA comme notre nouveau copain super intelligent nous empêche de voir ses vraies limites. Pour avancer, faut arrêter de s'émerveiller bêtement et comprendre ce que ces systèmes peuvent vraiment faire (et surtout ce qu'ils ne peuvent pas faire).
Principe 2 : L'intelligence, c'est bien plus qu'un score
Soyons honnêtes : l'intelligence humaine, c'est un sacré bazar ! Ce n'est pas juste savoir résoudre des équations ou mémoriser des trucs. C'est aussi être créatif, comprendre les émotions des autres, avoir une conscience morale, et même savoir utiliser son corps de façon coordonnée.
David Eagleman balance une vérité qui fait réfléchir : "Nous n'avons pas une définition unique de l'intelligence. Quand on demande si l'IA est vraiment intelligente, on n'a même pas de critère clair pour mesurer ça !"
Donc comparer un humain et une IA, c'est comme comparer des pommes et des oranges. L'IA peut être super forte pour jouer aux échecs ou générer des images, mais nulle pour comprendre pourquoi une blague est drôle ou pour ouvrir une porte qui grince. C'est pour ça qu'il faut arrêter avec les comparaisons simplistes et accepter que l'intelligence, c'est compliqué !
Principe 3 : L'IA doit apprendre à réfléchir avant de parler
Vous connaissez ce moment où vous répondez du tac au tac sans réfléchir, puis ce moment où vous prenez vraiment le temps de méditer sur un problème ? Le psychologue Daniel Kahneman (qui a décroché un Nobel, quand même) appelle ça le Système 1 (rapide et instinctif) et le Système 2 (lent et réfléchi).
Le problème avec nos IA actuelles comme ChatGPT ? Elles sont coincées en mode Système 1 ! Comme dit Yann LeCun : "Un LLM produit un mot après l'autre, c'est réactif... il n'y a pas de vrai raisonnement." C'est comme discuter avec quelqu'un qui répond toujours au quart de tour sans jamais prendre le temps de méditer profondément.
Pour que l'IA devienne vraiment utile, il faut qu'elle développe son Système 2 - cette capacité à vraiment réfléchir, à modéliser le monde, à raisonner pas à pas. C'est un peu comme passer de l'ado impulsif à l'adulte réfléchi. Pas simple, mais nécessaire !
Principe 4 : Les mots ne suffisent pas
Imaginez essayer de décrire le goût exact d'une fraise, ou la sensation précise d'un plongeon dans l'eau froide. Galère, non ? C'est parce que le langage, c'est super limité !
David Eagleman l'explique parfaitement : "La connexion qu'on a via le langage est d'une bande passante ridiculement faible. Quand je dis 'justice' ou 'liberté', j'y mets mon sens à moi. Vous y mettez probablement un sens complètement différent. On fait avec, mais c'est franchement pas idéal."
Le truc, c'est que nos IA actuelles sont gavées de textes, de mots, de phrases... mais pas d'expériences directes. C'est comme si vous deviez comprendre ce qu'est la natation uniquement en lisant des livres sur la natation, sans jamais mettre un orteil dans l'eau !
Pour que l'IA progresse vraiment, elle doit aller au-delà des mots. Elle doit comprendre le monde d'une façon plus complète, moins dépendante du langage. Un peu comme nous, qui apprenons bien plus en vivant des expériences qu'en lisant des descriptions.
Principe 5 : Une société d'IA plutôt qu'une super-IA
Oubliez l'idée d'une IA omnisciente qui sait tout faire (vous savez, ce truc flippant dans les films de science-fiction). L'avenir, c'est plutôt un tas d'IA différentes qui bossent ensemble, chacune avec sa spécialité.
Yann LeCun l'explique avec style : "Ce sera une société interactive de machines. Vous aurez des systèmes d'IA qui sont plus intelligents que d'autres et qui peuvent les neutraliser. Ce sera donc ma police d'IA intelligente contre votre IA voyou." Ça fait penser à une ville pleine de spécialistes plutôt qu'à un seul génie qui sait tout !
Le plus marrant dans cette histoire, c'est le paradoxe de Moravec : les ordinateurs peuvent nous battre aux échecs depuis des décennies, mais ils sont nuls pour faire ce qu'un bébé d'un an réussit sans effort - comme attraper une balle ou comprendre qu'un objet existe toujours même quand on ne le voit plus. La tech est bizarre des fois, non ?
Principe 6 : Les humains seront les boss, pas les machines
Rassurez-vous : dans le futur, c'est pas Terminator qui nous attend (enfin, normalement). Les experts pensent que la relation humain-IA sera claire : nous au-dessus, les machines en-dessous. Pourquoi ? Parce que les IA n'auront pas de "libre arbitre" et seront conçues avec des limites intégrées.
Yann LeCun y va cash : "Tout le monde deviendra une sorte de PDG, ou au moins un manager. L'humanité va monter en grade dans la hiérarchie. On aura un niveau sous nous, celui des systèmes d'IA. Ils pourront être plus intelligents que nous sur certains points, mais ils feront ce qu'on leur dit."
Imaginez : vous donnez des ordres à votre IA qui est peut-être super douée en maths ou en langues, mais c'est vous qui gardez le contrôle. Un peu comme avoir un super assistant qui est peut-être meilleur que vous dans certains domaines, mais qui ne prend jamais la décision finale. Ça changerait complètement notre façon de travailler, non ?
Principe 7 : Être intelligent, c'est pas tout dans la vie
On flippe souvent que les IA super intelligentes vont dominer le monde, mais c'est peut-être qu'on surestime le pouvoir de l'intelligence. Regardez autour de vous : est-ce que ce sont vraiment les plus intellos qui dirigent tout ?
Yann LeCun nous réveille : "Les gens accordent trop de crédit à l'intelligence pure. Ce n'est pas la seule force qui compte - il y a aussi des forces physiques, biologiques, etc. Regardez la politique actuelle, c'est pas vraiment les plus brillants qui sont aux commandes !"
Franchement, il marque un point. L'intelligence, c'est cool, mais ça ne fait pas tout. Une IA peut être super maligne mais elle ne peut rien contre un tsunami, une panne d'électricité, ou même contre un humain qui débranche simplement la prise ! Sans parler du charisme, de la manipulation émotionnelle ou de la force brute qui ont souvent plus d'impact que les raisonnements intelligents. C'est peut-être ça qui devrait nous rassurer (ou nous inquiéter, selon comment on voit les choses).
Principe 8 : On veut des IA prévisibles et qui respectent nos valeurs
Personne n'aime les mauvaises surprises. Avec les IA, c'est pareil : on veut qu'elles soient prévisibles et qu'elles respectent nos valeurs. Pas juste les valeurs occidentales ou celles d'une élite tech, mais les valeurs de chacun d'entre nous, dans toute leur diversité.
Yann LeCun est super clair là-dessus : "Il faut un effort collaboratif pour concevoir ces systèmes alignés sur les valeurs humaines... et la meilleure façon, c'est de le faire de manière ouverte et collaborative... pour que n'importe qui puisse construire dessus et garder sa propre souveraineté."
En gros, c'est comme dire : "Hé, ne laissons pas juste quelques grosses entreprises décider comment l'IA va fonctionner !" Plus les gens ordinaires auront leur mot à dire, plus l'IA respectera la diversité des valeurs humaines. On n'a pas tous la même définition de ce qui est important, juste, ou moral - et nos IA devraient refléter ça !
Pour conclure tout ça
Bon, alors on fait quoi de ces huit principes ? En fait, ils nous offrent une façon plus réaliste de voir l'IA, loin des films de science-fiction qui nous font croire qu'on va tous finir comme dans Matrix !
Marcus Weldon (qui a bien résumé tout ça) explique qu'on peut juger l'IA de deux façons : en regardant ce qu'elle produit (le "quoi") et comment elle y arrive (le "comment"). C'est un peu comme si pour évaluer un chef, vous regardiez non seulement si son plat est bon, mais aussi comment il l'a cuisiné.
Au final, ce qu'on veut, c'est pas des robots qui font tout comme nous ou qui nous remplacent (franchement, qui a besoin d'un double numérique ?). On veut des systèmes qui nous rendent plus efficaces, qui nous libèrent des tâches pénibles, tout en respectant nos valeurs et en restant sous notre contrôle.
L'IA, c'est comme n'importe quel outil : elle vaut ce qu'on en fait. Ces principes nous rappellent juste que c'est à nous de décider ce qu'on veut en faire, pas l'inverse. Alors, prêts pour ce futur où l'IA est notre assistante et pas notre remplaçante ?
Vous vous souvenez des trois lois de la robotique d'Asimov ? Ces règles qui disent qu'un robot ne peut pas blesser un humain, doit obéir aux ordres et doit protéger sa propre existence (tant que ça ne contredit pas les deux premières lois) ? Eh bien, on dirait qu'on est en train d'écrire l'équivalent moderne pour l'intelligence artificielle !
Dans une série de discussions super intéressantes publiées par Newsweek, Marcus Weldon (l'ancien boss des Bell Labs) a discuté avec trois pointures dans le domaine : Rodney Brooks (roboticien), David Eagleman (neuroscientifique) et Yann LeCun (un des papas de l'IA moderne). Et vous savez quoi ? Malgré leurs backgrounds différents, ils sont tombés d'accord sur huit principes qui vont probablement façonner l'avenir de l'IA. Voyons ce que ça donne !
Principe 1 : On croit que c'est magique (mais ça ne l'est pas)
Avouons-le : dès qu'un ChatGPT nous sort une réponse intelligente, on est tentés de penser "Wow, cette machine comprend vraiment ce que je dis !" C'est ce que les experts appellent la "pensée magique" - cette manie qu'on a d'attribuer des capacités humaines à nos gadgets dès qu'ils font un truc un peu futé.
Comme le dit Rodney Brooks sans prendre de gants : "Si ça ressemble à de la magie, alors vous ne comprenez pas... et vous ne devriez pas acheter quelque chose que vous ne comprenez pas." Boom !
En gros, on est comme des enfants devant un tour de magie - impressionnés mais complètement à côté de la plaque sur ce qui se passe réellement. Cette tendance à voir l'IA comme notre nouveau copain super intelligent nous empêche de voir ses vraies limites. Pour avancer, faut arrêter de s'émerveiller bêtement et comprendre ce que ces systèmes peuvent vraiment faire (et surtout ce qu'ils ne peuvent pas faire).
Principe 2 : L'intelligence, c'est bien plus qu'un score
Soyons honnêtes : l'intelligence humaine, c'est un sacré bazar ! Ce n'est pas juste savoir résoudre des équations ou mémoriser des trucs. C'est aussi être créatif, comprendre les émotions des autres, avoir une conscience morale, et même savoir utiliser son corps de façon coordonnée.
David Eagleman balance une vérité qui fait réfléchir : "Nous n'avons pas une définition unique de l'intelligence. Quand on demande si l'IA est vraiment intelligente, on n'a même pas de critère clair pour mesurer ça !"
Donc comparer un humain et une IA, c'est comme comparer des pommes et des oranges. L'IA peut être super forte pour jouer aux échecs ou générer des images, mais nulle pour comprendre pourquoi une blague est drôle ou pour ouvrir une porte qui grince. C'est pour ça qu'il faut arrêter avec les comparaisons simplistes et accepter que l'intelligence, c'est compliqué !
Principe 3 : L'IA doit apprendre à réfléchir avant de parler
Vous connaissez ce moment où vous répondez du tac au tac sans réfléchir, puis ce moment où vous prenez vraiment le temps de méditer sur un problème ? Le psychologue Daniel Kahneman (qui a décroché un Nobel, quand même) appelle ça le Système 1 (rapide et instinctif) et le Système 2 (lent et réfléchi).
Le problème avec nos IA actuelles comme ChatGPT ? Elles sont coincées en mode Système 1 ! Comme dit Yann LeCun : "Un LLM produit un mot après l'autre, c'est réactif... il n'y a pas de vrai raisonnement." C'est comme discuter avec quelqu'un qui répond toujours au quart de tour sans jamais prendre le temps de méditer profondément.
Pour que l'IA devienne vraiment utile, il faut qu'elle développe son Système 2 - cette capacité à vraiment réfléchir, à modéliser le monde, à raisonner pas à pas. C'est un peu comme passer de l'ado impulsif à l'adulte réfléchi. Pas simple, mais nécessaire !
Principe 4 : Les mots ne suffisent pas
Imaginez essayer de décrire le goût exact d'une fraise, ou la sensation précise d'un plongeon dans l'eau froide. Galère, non ? C'est parce que le langage, c'est super limité !
David Eagleman l'explique parfaitement : "La connexion qu'on a via le langage est d'une bande passante ridiculement faible. Quand je dis 'justice' ou 'liberté', j'y mets mon sens à moi. Vous y mettez probablement un sens complètement différent. On fait avec, mais c'est franchement pas idéal."
Le truc, c'est que nos IA actuelles sont gavées de textes, de mots, de phrases... mais pas d'expériences directes. C'est comme si vous deviez comprendre ce qu'est la natation uniquement en lisant des livres sur la natation, sans jamais mettre un orteil dans l'eau !
Pour que l'IA progresse vraiment, elle doit aller au-delà des mots. Elle doit comprendre le monde d'une façon plus complète, moins dépendante du langage. Un peu comme nous, qui apprenons bien plus en vivant des expériences qu'en lisant des descriptions.
Principe 5 : Une société d'IA plutôt qu'une super-IA
Oubliez l'idée d'une IA omnisciente qui sait tout faire (vous savez, ce truc flippant dans les films de science-fiction). L'avenir, c'est plutôt un tas d'IA différentes qui bossent ensemble, chacune avec sa spécialité.
Yann LeCun l'explique avec style : "Ce sera une société interactive de machines. Vous aurez des systèmes d'IA qui sont plus intelligents que d'autres et qui peuvent les neutraliser. Ce sera donc ma police d'IA intelligente contre votre IA voyou." Ça fait penser à une ville pleine de spécialistes plutôt qu'à un seul génie qui sait tout !
Le plus marrant dans cette histoire, c'est le paradoxe de Moravec : les ordinateurs peuvent nous battre aux échecs depuis des décennies, mais ils sont nuls pour faire ce qu'un bébé d'un an réussit sans effort - comme attraper une balle ou comprendre qu'un objet existe toujours même quand on ne le voit plus. La tech est bizarre des fois, non ?
Principe 6 : Les humains seront les boss, pas les machines
Rassurez-vous : dans le futur, c'est pas Terminator qui nous attend (enfin, normalement). Les experts pensent que la relation humain-IA sera claire : nous au-dessus, les machines en-dessous. Pourquoi ? Parce que les IA n'auront pas de "libre arbitre" et seront conçues avec des limites intégrées.
Yann LeCun y va cash : "Tout le monde deviendra une sorte de PDG, ou au moins un manager. L'humanité va monter en grade dans la hiérarchie. On aura un niveau sous nous, celui des systèmes d'IA. Ils pourront être plus intelligents que nous sur certains points, mais ils feront ce qu'on leur dit."
Imaginez : vous donnez des ordres à votre IA qui est peut-être super douée en maths ou en langues, mais c'est vous qui gardez le contrôle. Un peu comme avoir un super assistant qui est peut-être meilleur que vous dans certains domaines, mais qui ne prend jamais la décision finale. Ça changerait complètement notre façon de travailler, non ?
Principe 7 : Être intelligent, c'est pas tout dans la vie
On flippe souvent que les IA super intelligentes vont dominer le monde, mais c'est peut-être qu'on surestime le pouvoir de l'intelligence. Regardez autour de vous : est-ce que ce sont vraiment les plus intellos qui dirigent tout ?
Yann LeCun nous réveille : "Les gens accordent trop de crédit à l'intelligence pure. Ce n'est pas la seule force qui compte - il y a aussi des forces physiques, biologiques, etc. Regardez la politique actuelle, c'est pas vraiment les plus brillants qui sont aux commandes !"
Franchement, il marque un point. L'intelligence, c'est cool, mais ça ne fait pas tout. Une IA peut être super maligne mais elle ne peut rien contre un tsunami, une panne d'électricité, ou même contre un humain qui débranche simplement la prise ! Sans parler du charisme, de la manipulation émotionnelle ou de la force brute qui ont souvent plus d'impact que les raisonnements intelligents. C'est peut-être ça qui devrait nous rassurer (ou nous inquiéter, selon comment on voit les choses).
Principe 8 : On veut des IA prévisibles et qui respectent nos valeurs
Personne n'aime les mauvaises surprises. Avec les IA, c'est pareil : on veut qu'elles soient prévisibles et qu'elles respectent nos valeurs. Pas juste les valeurs occidentales ou celles d'une élite tech, mais les valeurs de chacun d'entre nous, dans toute leur diversité.
Yann LeCun est super clair là-dessus : "Il faut un effort collaboratif pour concevoir ces systèmes alignés sur les valeurs humaines... et la meilleure façon, c'est de le faire de manière ouverte et collaborative... pour que n'importe qui puisse construire dessus et garder sa propre souveraineté."
En gros, c'est comme dire : "Hé, ne laissons pas juste quelques grosses entreprises décider comment l'IA va fonctionner !" Plus les gens ordinaires auront leur mot à dire, plus l'IA respectera la diversité des valeurs humaines. On n'a pas tous la même définition de ce qui est important, juste, ou moral - et nos IA devraient refléter ça !
Pour conclure tout ça
Bon, alors on fait quoi de ces huit principes ? En fait, ils nous offrent une façon plus réaliste de voir l'IA, loin des films de science-fiction qui nous font croire qu'on va tous finir comme dans Matrix !
Marcus Weldon (qui a bien résumé tout ça) explique qu'on peut juger l'IA de deux façons : en regardant ce qu'elle produit (le "quoi") et comment elle y arrive (le "comment"). C'est un peu comme si pour évaluer un chef, vous regardiez non seulement si son plat est bon, mais aussi comment il l'a cuisiné.
Au final, ce qu'on veut, c'est pas des robots qui font tout comme nous ou qui nous remplacent (franchement, qui a besoin d'un double numérique ?). On veut des systèmes qui nous rendent plus efficaces, qui nous libèrent des tâches pénibles, tout en respectant nos valeurs et en restant sous notre contrôle.
L'IA, c'est comme n'importe quel outil : elle vaut ce qu'on en fait. Ces principes nous rappellent juste que c'est à nous de décider ce qu'on veut en faire, pas l'inverse. Alors, prêts pour ce futur où l'IA est notre assistante et pas notre remplaçante ?
Vous vous souvenez des trois lois de la robotique d'Asimov ? Ces règles qui disent qu'un robot ne peut pas blesser un humain, doit obéir aux ordres et doit protéger sa propre existence (tant que ça ne contredit pas les deux premières lois) ? Eh bien, on dirait qu'on est en train d'écrire l'équivalent moderne pour l'intelligence artificielle !
Dans une série de discussions super intéressantes publiées par Newsweek, Marcus Weldon (l'ancien boss des Bell Labs) a discuté avec trois pointures dans le domaine : Rodney Brooks (roboticien), David Eagleman (neuroscientifique) et Yann LeCun (un des papas de l'IA moderne). Et vous savez quoi ? Malgré leurs backgrounds différents, ils sont tombés d'accord sur huit principes qui vont probablement façonner l'avenir de l'IA. Voyons ce que ça donne !
Principe 1 : On croit que c'est magique (mais ça ne l'est pas)
Avouons-le : dès qu'un ChatGPT nous sort une réponse intelligente, on est tentés de penser "Wow, cette machine comprend vraiment ce que je dis !" C'est ce que les experts appellent la "pensée magique" - cette manie qu'on a d'attribuer des capacités humaines à nos gadgets dès qu'ils font un truc un peu futé.
Comme le dit Rodney Brooks sans prendre de gants : "Si ça ressemble à de la magie, alors vous ne comprenez pas... et vous ne devriez pas acheter quelque chose que vous ne comprenez pas." Boom !
En gros, on est comme des enfants devant un tour de magie - impressionnés mais complètement à côté de la plaque sur ce qui se passe réellement. Cette tendance à voir l'IA comme notre nouveau copain super intelligent nous empêche de voir ses vraies limites. Pour avancer, faut arrêter de s'émerveiller bêtement et comprendre ce que ces systèmes peuvent vraiment faire (et surtout ce qu'ils ne peuvent pas faire).
Principe 2 : L'intelligence, c'est bien plus qu'un score
Soyons honnêtes : l'intelligence humaine, c'est un sacré bazar ! Ce n'est pas juste savoir résoudre des équations ou mémoriser des trucs. C'est aussi être créatif, comprendre les émotions des autres, avoir une conscience morale, et même savoir utiliser son corps de façon coordonnée.
David Eagleman balance une vérité qui fait réfléchir : "Nous n'avons pas une définition unique de l'intelligence. Quand on demande si l'IA est vraiment intelligente, on n'a même pas de critère clair pour mesurer ça !"
Donc comparer un humain et une IA, c'est comme comparer des pommes et des oranges. L'IA peut être super forte pour jouer aux échecs ou générer des images, mais nulle pour comprendre pourquoi une blague est drôle ou pour ouvrir une porte qui grince. C'est pour ça qu'il faut arrêter avec les comparaisons simplistes et accepter que l'intelligence, c'est compliqué !
Principe 3 : L'IA doit apprendre à réfléchir avant de parler
Vous connaissez ce moment où vous répondez du tac au tac sans réfléchir, puis ce moment où vous prenez vraiment le temps de méditer sur un problème ? Le psychologue Daniel Kahneman (qui a décroché un Nobel, quand même) appelle ça le Système 1 (rapide et instinctif) et le Système 2 (lent et réfléchi).
Le problème avec nos IA actuelles comme ChatGPT ? Elles sont coincées en mode Système 1 ! Comme dit Yann LeCun : "Un LLM produit un mot après l'autre, c'est réactif... il n'y a pas de vrai raisonnement." C'est comme discuter avec quelqu'un qui répond toujours au quart de tour sans jamais prendre le temps de méditer profondément.
Pour que l'IA devienne vraiment utile, il faut qu'elle développe son Système 2 - cette capacité à vraiment réfléchir, à modéliser le monde, à raisonner pas à pas. C'est un peu comme passer de l'ado impulsif à l'adulte réfléchi. Pas simple, mais nécessaire !
Principe 4 : Les mots ne suffisent pas
Imaginez essayer de décrire le goût exact d'une fraise, ou la sensation précise d'un plongeon dans l'eau froide. Galère, non ? C'est parce que le langage, c'est super limité !
David Eagleman l'explique parfaitement : "La connexion qu'on a via le langage est d'une bande passante ridiculement faible. Quand je dis 'justice' ou 'liberté', j'y mets mon sens à moi. Vous y mettez probablement un sens complètement différent. On fait avec, mais c'est franchement pas idéal."
Le truc, c'est que nos IA actuelles sont gavées de textes, de mots, de phrases... mais pas d'expériences directes. C'est comme si vous deviez comprendre ce qu'est la natation uniquement en lisant des livres sur la natation, sans jamais mettre un orteil dans l'eau !
Pour que l'IA progresse vraiment, elle doit aller au-delà des mots. Elle doit comprendre le monde d'une façon plus complète, moins dépendante du langage. Un peu comme nous, qui apprenons bien plus en vivant des expériences qu'en lisant des descriptions.
Principe 5 : Une société d'IA plutôt qu'une super-IA
Oubliez l'idée d'une IA omnisciente qui sait tout faire (vous savez, ce truc flippant dans les films de science-fiction). L'avenir, c'est plutôt un tas d'IA différentes qui bossent ensemble, chacune avec sa spécialité.
Yann LeCun l'explique avec style : "Ce sera une société interactive de machines. Vous aurez des systèmes d'IA qui sont plus intelligents que d'autres et qui peuvent les neutraliser. Ce sera donc ma police d'IA intelligente contre votre IA voyou." Ça fait penser à une ville pleine de spécialistes plutôt qu'à un seul génie qui sait tout !
Le plus marrant dans cette histoire, c'est le paradoxe de Moravec : les ordinateurs peuvent nous battre aux échecs depuis des décennies, mais ils sont nuls pour faire ce qu'un bébé d'un an réussit sans effort - comme attraper une balle ou comprendre qu'un objet existe toujours même quand on ne le voit plus. La tech est bizarre des fois, non ?
Principe 6 : Les humains seront les boss, pas les machines
Rassurez-vous : dans le futur, c'est pas Terminator qui nous attend (enfin, normalement). Les experts pensent que la relation humain-IA sera claire : nous au-dessus, les machines en-dessous. Pourquoi ? Parce que les IA n'auront pas de "libre arbitre" et seront conçues avec des limites intégrées.
Yann LeCun y va cash : "Tout le monde deviendra une sorte de PDG, ou au moins un manager. L'humanité va monter en grade dans la hiérarchie. On aura un niveau sous nous, celui des systèmes d'IA. Ils pourront être plus intelligents que nous sur certains points, mais ils feront ce qu'on leur dit."
Imaginez : vous donnez des ordres à votre IA qui est peut-être super douée en maths ou en langues, mais c'est vous qui gardez le contrôle. Un peu comme avoir un super assistant qui est peut-être meilleur que vous dans certains domaines, mais qui ne prend jamais la décision finale. Ça changerait complètement notre façon de travailler, non ?
Principe 7 : Être intelligent, c'est pas tout dans la vie
On flippe souvent que les IA super intelligentes vont dominer le monde, mais c'est peut-être qu'on surestime le pouvoir de l'intelligence. Regardez autour de vous : est-ce que ce sont vraiment les plus intellos qui dirigent tout ?
Yann LeCun nous réveille : "Les gens accordent trop de crédit à l'intelligence pure. Ce n'est pas la seule force qui compte - il y a aussi des forces physiques, biologiques, etc. Regardez la politique actuelle, c'est pas vraiment les plus brillants qui sont aux commandes !"
Franchement, il marque un point. L'intelligence, c'est cool, mais ça ne fait pas tout. Une IA peut être super maligne mais elle ne peut rien contre un tsunami, une panne d'électricité, ou même contre un humain qui débranche simplement la prise ! Sans parler du charisme, de la manipulation émotionnelle ou de la force brute qui ont souvent plus d'impact que les raisonnements intelligents. C'est peut-être ça qui devrait nous rassurer (ou nous inquiéter, selon comment on voit les choses).
Principe 8 : On veut des IA prévisibles et qui respectent nos valeurs
Personne n'aime les mauvaises surprises. Avec les IA, c'est pareil : on veut qu'elles soient prévisibles et qu'elles respectent nos valeurs. Pas juste les valeurs occidentales ou celles d'une élite tech, mais les valeurs de chacun d'entre nous, dans toute leur diversité.
Yann LeCun est super clair là-dessus : "Il faut un effort collaboratif pour concevoir ces systèmes alignés sur les valeurs humaines... et la meilleure façon, c'est de le faire de manière ouverte et collaborative... pour que n'importe qui puisse construire dessus et garder sa propre souveraineté."
En gros, c'est comme dire : "Hé, ne laissons pas juste quelques grosses entreprises décider comment l'IA va fonctionner !" Plus les gens ordinaires auront leur mot à dire, plus l'IA respectera la diversité des valeurs humaines. On n'a pas tous la même définition de ce qui est important, juste, ou moral - et nos IA devraient refléter ça !
Pour conclure tout ça
Bon, alors on fait quoi de ces huit principes ? En fait, ils nous offrent une façon plus réaliste de voir l'IA, loin des films de science-fiction qui nous font croire qu'on va tous finir comme dans Matrix !
Marcus Weldon (qui a bien résumé tout ça) explique qu'on peut juger l'IA de deux façons : en regardant ce qu'elle produit (le "quoi") et comment elle y arrive (le "comment"). C'est un peu comme si pour évaluer un chef, vous regardiez non seulement si son plat est bon, mais aussi comment il l'a cuisiné.
Au final, ce qu'on veut, c'est pas des robots qui font tout comme nous ou qui nous remplacent (franchement, qui a besoin d'un double numérique ?). On veut des systèmes qui nous rendent plus efficaces, qui nous libèrent des tâches pénibles, tout en respectant nos valeurs et en restant sous notre contrôle.
L'IA, c'est comme n'importe quel outil : elle vaut ce qu'on en fait. Ces principes nous rappellent juste que c'est à nous de décider ce qu'on veut en faire, pas l'inverse. Alors, prêts pour ce futur où l'IA est notre assistante et pas notre remplaçante ?
Continue Reading