L’intelligence artificielle : historique et l’âge d’or

Si nous n’avons pas cité l’intelligence artificielle dans les révolutions scientifiques des 20 dernières années, c’est tout simplement car elle est bien plus ancienne. On retrouve des traces de machines « pensantes » dans la science-fiction dès les années 1920.

En 1950, c’était au tour des scientifiques de s’intéresser au sujet, sous l’impulsion du célèbre mathématicien Alan Turing et de son article « L’ordinateur et l’intelligence ». Il expose également un test pour savoir si une machine s’approche d’une intelligence humaine : « le jeu de l’imitation », plus connu sous le nom de test de Turing.

 

Les travaux de recherches sont nombreux et, en 1956 (en même temps que le premier disque dur), le premier logiciel d’intelligence artificielle est créé par Allen Newell et Herbert Simon : Logic Theorist. Il réalise tout seul des démonstrations de théorèmes mathématiques, explique le CEA. Un an plus tard, en 1957, le psychologue Frank Rosenblatt invente le premier logiciel d’apprentissage grâce à un réseau de neurones : le Perceptron. Bref, l’intelligence artificielle existait déjà dans les années 50. En 1965, Joseph Weizenbaum présente ELIZA, un programme informatique capable de remplacer une personne pendant des entretiens thérapeutiques : le premier chatbot était né. Toujours en 1965, les premières questions autour de l’éthique et critiques sont soulevées par Hubert Dreyfus. Il met notamment en avant les émotions, absentes des algorithmes.

 

L’histoire de l’intelligence artificielle est ensuite jalonnée de haut et de bas. Le premier hiver de l’IA  est arrivé à la fin des années 1960. Passé la « hype » du moment, la désillusion a pris place face aux piètres performances des machines de l’époque. La science-fiction en fait par contre ses choux gras avec des films comme 2001 l’Odysée de l’Espace (1968), Star Wars (1977, avec les droïdes D2R2 et C-3PO) et Wargames (1983) pour ne citer que ces trois-là.

Il faudra attendre les années 80 pour que les investissements sur ce sujet reprennent, avec le développement des « systèmes experts » capables de remplacer l’homme dans des domaines bien précis. Une période de courte durée puisque l’ordinateur personnel concentrait les attentions et les investissements dès la fin des années 80.

L’intelligence artificielle revient dans les années 90, poussée par la puissance des ordinateurs. Ce duo va d’ailleurs faire des merveilles et continue aujourd’hui : l’augmentation exponentielle de la puissance de calcul et des capacités de stockage permettent d’améliorer toujours plus les IA. Elle a d’ailleurs quelques faits d’armes : en 1997, l’application de reconnaissance vocale NaturallySpeaking 1.0 de Dragon System débarque sur Windows. La même année, Deep(er) Blue bat le champion d’échec Garry Kasparov. La première partie a fait couler beaucoup d’encre car l’intelligence artificielle a joué un coup très surprenant en sacrifiant un pion.

Mais, ce qui avait été pris pour un signe d’intelligence supérieure  pourrait n’être qu’un bug car la machine n’arrivait pas à se décider entre plusieurs possibilités…. 20 ans plus tard, AlphaGo dépasse les humains au jeu de Go. L’intelligence artificielle n’en restera évidemment pas là.  Elle s’attaque désormais aux compétitions de jeux vidéo.

Grâce aux réseaux de neurones, à la puissance de calcul et aux bases de données qui explosent, les IA ne peuvent en effet que s’améliorer. Les prochaines années promettent d’être passionnantes sur ce point. Il reste néanmoins beaucoup de travail pour arriver à une intelligence artificielle « réellement intelligente ». Ceux qui ont testé Google Assistant, Amazon Alexa ou Siri d’Apple voient bien de quoi il est question.

 

L’IA dans les 10 prochaines années

D’après les experts,  il n’y a que peu de chance qu’une IA forte, c’est-à-dire ayant conscience d’elle-même, n’arrive dans les 10 prochaines années pour peu qu’elle puisse un jour être développée. Nous ne connaissons toujours pas les principes de l’apprentissage prédictif (aussi appelé apprentissage non supervisé). C’est ce type d’apprentissage qui permet aux humains (et aux animaux) d’acquérir du bon sens ». Quoi qu’il en soit, la course à l’IA est lancée depuis des années, notamment du côté des fabricants de puces qui se battent à coups de millions/milliards de FLOPS.

La puissance de calcul actuelle de la machine la plus rapide dépasse les 100 pétaflops, se rapprochant doucement mais sûrement du Graal : un exaflops, soit 1 000 pétaflops ou un milliard de milliards d’opérations par seconde. Pour certains scientifiques, il s’agit d’une frontière symbolique puisqu’elle peut être assimilée à la capacité de traitement de l’information d’un cerveau humain, bien que soit encore à prouver. Et il reste à trouver les algorithmes capables de simuler un cerveau humain. Sur ce sujet, les prochaines années promettent d’être passionnantes.

 

L’humain augmenté et l’intelligence artificielle

Le but ultime serait de fusionner l’homme et la machine, en téléchargeant par exemple son cerveau sur une entité numérique. Là encore, la science-fiction a pris les devants. Un des derniers exemples en date : Lucy, de Luc Besson, qui finit dans une clé USB.

Transférer l’esprit, les émotions, le sens critique, l’humour ou l’analyse de la pensée d’autrui depuis le cerveau vers une puce afin d’aboutir à une vie éternelle débarrassée d’un cerveau vieillissant, est un fantasme de quelques mégalomanesaffirment les neuroscientifiques.

Pour les chercheurs :derrière le mythe transhumaniste s’avance masquée une gigantesque toile d’intérêts économiques. Les transhumanistes sont le pur produit d’une société où les puissances de l’argent, banques, multinationales industrielles et politiques règnent en maîtres. Pour eux, il ne s’agit pas de refuser d’emblée les implants intracérébraux, la thérapie génique, les prothèses bioniques ou la sélection des cellules souches, mais de rester vigilants quant au rôle systémique des usages qui en seront faits.

 

Prudence et esprit critique pour les prochaines années

Comme on vient de le voir, des découvertes scientifiques majeures peuvent prendre du temps avant de déboucher sur des utilisations concrètes et à grande échelle (pour celles qui arrivent à percer). Regarder 20 ans en arrière permet d’esquisser les tendances des 20 prochaines années, mais nous ne sommes pas à l’abri d’une découverte inattendue venant tout chambouler. Il faut rester vigilant sur les annonces et les usages, notamment celles autour de l’intelligence artificielle qui ont tendance à faire passer un algorithme pour une IA, ou une simple base de données pour une blockchain. Un conseil qu’il convient finalement d’appliquer à tous les domaines de recherche. Il est primordial de regarder au-delà des effets d’annonces, qui bien trop souvent flirtent ou même embrassent le sensationnalisme.

Certains scientifiques, instituts et sociétés sont parfois à blâmer en essayant de faire passer des vessies pour des lanternes, pour la simple visibilité. Bref, il faut savoir se poser les bonnes questions, dépasser le titre ou le résumé de quelques lignes, qui font forcément l’impasse sur les zones d’ombres. Il faut également éviter d’extrapoler, sans pour autant minimiser. Par exemple, on ne compte plus les publications scientifiques et les promesses affirmant révolutionner le monde des batteries/piles… mais force est de constater que pas grand-chose ne change.  D’un autre côté, observer directement des ondes gravitationnelles ou un trou noir est bien plus important qu’il n’y paraît.

 

L’intelligence artificielle et l’emploi

Certaines études qui ont révélé que d’ici à 2025, l’utilisation accrue des robots et de l’intelligence artificielle devrait changer le mode de certaines professions, qui pourront même disparaître complètement, chose qui menace environ 5 millions d’emplois dans les 15 plus grandes économies du monde. Selon ces études, les métiers les plus menacés sont ceux qui ne nécessitent pas de grandes compétences et qui reposent sur la répétition, étant donné que les machines peuvent exercer ces métiers plus efficacement que les humains, notamment les métiers liés à la construction, à la mécanique et à la maintenance…

Dans ce contexte,  il faut souligner la nécessité de soutenir ces métiers et emplois en Tunisie et ailleurs, menacés pour leur permettre de mieux s’adapter aux mutations rapides du monde technologique, d’autant plus que les algorithmes dont dépendent les machines pour acquérir des compétences reposent sur les expériences humaines et l’accumulation d’informations. S’il est difficile de savoir dans quelle mesure l’intelligence artificielle affectera le marché du travail, il est certain qu’elle redessinera la cartographie des emplois futurs, ce qui se reflétera dans de nombreux secteurs qui seront inévitablement touchés à divers degrés. Ces transformations tangibles, et celles qui sont attendues dans un avenir proche, obligent les pays à développer des plans et des stratégies novateurs pour relever les défis posés par les nouvelles technologies, à travers, notamment, la qualification de leurs ressources humaines, la reconsidération de leurs programmes éducatifs et l’augmentation de leurs investissements dans le domaine de la recherche scientifique afin qu’ils soient au cœur du processus historique, et non en marge.

La Tunisie ne dispose pas encore de suffisamment de profils spécialistes en Intelligence artificielle expérimentés, mais cela peut très vite changer et il y a une opportunité à saisir : Global Engineering Center, leader dans la formation et le conseil autour des technologies émergentes, intelligence artificielle, Big Data et les analytics vous ouvrent les portes pour investir dans ce domaine innovant à travers des worshops et formations pratiques assurés par des experts qualifiés ainsi qu’une offre complète en prestation de services autour du data voire un accompagnement dans la transformation digitale.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

fr_FR
en_GB fr_FR