Aller au contenu

L’intelligence artificielle, un risque ou une opportunité pour la société ?

robots jouant aux echecs

« ChatGPT va vous faire gagner 25 heures par jour. » « L’intelligence artificielle va vous remplacer. » « L’IA va permettre des progrès scientifiques considérables dans tous les domaines. » « Vos données vont être encore plus exposées aux cyberattaques. » On peut aujourd’hui entendre tous les avis, optimistes comme pessimistes, sur l’intelligence artificielle. Mais concrètement l’IA représente elle un risque ou une opportunité pour notre société ? 

Une technologie plus qu'innovante

Même si elle est souvent personnifiée (en robot humanoïde) l’intelligence artificielle est un programme informatique, un outil. On ne peut pas prêter de valeurs morales à un outil. Est-ce que les voitures, les smartphones ou Internet sont de bonnes ou de mauvaises choses pour l’humanité ? La réponse est : cela dépend ce qu’on en fait. Comme décrit dans cet article, l’innovation passe toujours par trois phases avant d’en devenir une : l’inutile (Akinator, les débuts des assistants vocaux…), le dangereux (ChatGPT va vous remplacer) et enfin l’évident (nos usages futurs de l’IA). Cette perception progressive de l’innovation est parfaitement légitime puisqu’on ne souhaite pas démocratiser des comportements ou des outils dangereux pour notre société. L’acceptation de l’innovation pour le grand public repose alors sur l’équilibre entre risques et opportunités.

Opportunités et utopie

L’intelligence artificielle est un programme visant à simuler certains traits de l’intelligence humaine. Si dans certains domaines comme l’humour, les émotions ou la compréhension d’environnement complexe l’IA présente peu de réussite, elle excelle pourtant dans les tâches répétitives ou basées sur des probabilités. La promesse peut faire rêver. Elle devrait nous permettre de détecter plus tôt des maladies, mettre au point de nouveaux traitements, augmenter la productivité mondiale, réduire les risques de catastrophes naturelles ou encore mieux comprendre l’univers ou le réchauffement climatique. Ce qui fait le plus fantasmer c’est que cette liste n’est pas exhaustive et que les apports pourraient concerner absolument tous les domaines (justice, sécurité, science, économie, information…). Avec les premières découvertes permises par l’usage de l’IA et la promesse des suivantes, il paraît difficile de se priver de cet outil technologique d’un point de vue philosophique mais également géopolitique. Si un pays utilisait cette technologie pour prendre de l’avance dans tous les domaines, il serait extrêmement difficile de rattraper ce retard. A l’heure ou les crises diplomatiques et les conflits se multiplient, les domaines de la sécurité et de l’économie peuvent difficilement se priver de cet avantage.

Risques et dystopie

Ces promesses, parfois utopiques, apportent leur lot de comportements déviants et de risques. Les cybercriminels se sont déjà emparés de ces outils leur permettant d’augmenter leurs compétences notamment en ingénierie sociale ou en recherche de vulnérabilités. L’IA générative pose également des questions concernant notre capacité à nous informer, la véracité des informations que nous rencontrons, le respect de la propriété intellectuelle ou encore son impact écologique. Certaines études tendent à démontrer que l’usage abusif de ces technologies risque aussi de réduire nos capacités intellectuelles et augmenter notre dépendance à la technologie. L’impact sur le marché du travail avec l’automatisation de certains métiers ou la confidentialité et la souveraineté de nos données personnelles soulèvent également des questions. Ces programmes n’étant pas infaillibles, ils font parfois des erreurs et ces hallucinations, biais ou discriminations potentielles peuvent avoir des impacts majeurs sur la société. Enfin ces modèles (hors initiatives open source) sont la propriété de quelques entreprises technologiques et cette situation peut impliquer une concentration des pouvoirs et exacerber certaines inégalités entre pays, entreprises ou citoyens.

Comment s'approprier l'intelligence artificielle ?

Une fois le portrait de l’intelligence artificielle dressé, la question à se poser est donc la suivante : comment peut-on bénéficier de ces opportunités en réduisant les risques au minimum ? Pour que l’IA s’impose comme une évidence dans nos usages et donc comme une innovation, il va être nécessaire d’encadrer cette technologie. Le règlement européen sur l’intelligence artificielle vient poser les bases de cette régulation et impose différentes mesures aux éditeurs et utilisateurs de programmes d’IA. Concernant la transformation du monde de l’emploi différentes initiatives peuvent être envisagées comme la limitation de l’utilisation de l’IA en entreprise ou encore des systèmes de revenu universel pour compenser la baisse d’emplois comme évoqué par Sam Altman ou Elon Musk, même si l’idée peut paraître très utopiste aujourd’hui. La formation est également un sujet majeur afin que le grand public s’approprie la technologie en ayant conscience des risques ou des comportements dangereux à éviter et comprenne le fonctionnement global de ces outils trop souvent encore perçus comme « magiques ». La régulation, la formation et la sécurité des données seront des enjeux cruciaux pour les mois et années à venir. D’après Stephen Hawking, « La montée de l’IA pourrait être la pire ou la meilleure chose qui soit jamais arrivée à l’humanité. » A nous de nous assurer que la loi, la formation et la cybersécurité seront au niveau des enjeux soulevés par cette technologie.

Cet article à été rédigé à la main. La photo de couverture a été générée par l’IA de Canva.

Pour aller plus loin

L’acceptation des cookies fonctionnels depuis le bandeau de cookies est nécessaire pour afficher les vidéos YouTube de cette section.