Comprendre les désavantages et les gains de l’intelligence artificielle

De SIRI aux automobiles autonomes, les connaissances artificielles (IA) progressent rapidement. Alors que la science-fiction décrit généralement l’IA comme des robots aux caractéristiques semblables à celles d’un être humain, l’intelligence artificielle peut englober tout, des techniques de recherche de Google à Watson d’IBM en passant par les armes autonomes. De nos jours, les connaissances artificielles sont correctement appelées IA mince (ou IA faible), en ce sens qu’elles doivent être créées pour effectuer une tâche étroite (par exemple, uniquement la reconnaissance du traitement du visage ou uniquement des recherches sur Internet ou uniquement la conduite d’un véhicule). Néanmoins, l’objectif à long terme de plusieurs scientifiques serait de produire une IA de base (AGI ou IA forte). Bien que l’IA mince puisse surpasser les humains dans quelle que soit sa tâche spécifique, comme jouer activement aux échecs ou résoudre des équations, l’AGI surpasserait les êtres humains dans à peu près n’importe quel travail mental. Pour résumer, l’objectif consistant à essayer de maintenir l’effet de l’IA sur la société utile encourage les enquêtes dans de nombreux domaines, de l’économie d’entreprise et du droit aux sujets techniques tels que la vérification, la crédibilité, la protection et le contrôle. Bien que cela puisse être un peu plus qu’un ennui mineur si votre ordinateur portable se heurte ou est piraté, il devient d’autant plus crucial qu’une méthode d’IA fasse ce que vous voulez qu’elle fasse si elle gère votre voiture, votre avion, votre stimulateur cardiaque, vos achats informatisés. et méthode de vente ou votre réseau énergétique. Un défi supplémentaire d’expression rapide consiste à arrêter une course écrasante de biceps et de triceps dans des outils autonomes mortels. À long terme, une question importante pour vous est de savoir ce qui va se passer si la quête d’une IA puissante réussit et qu’une méthode d’IA deviendra bien meilleure que les tâches intellectuelles des gens. Comme l’a révélé I.J. Génial en 1965, concevoir des méthodes d’IA plus sages est en soi un travail cognitif. Un tel système pourrait passer par une auto-amélioration récursive, activant une explosion d’intellect laissant l’intellect de l’être humain considérablement derrière. En inventant des technologies révolutionnaires, ce type de superintelligence nous aidera à éliminer la bataille, la maladie et la pauvreté, et le développement d’une IA forte pourrait donc être la plus grande occasion dans le contexte de l’être humain. Certains spécialistes ont cependant exprimé leur inquiétude quant au fait que cela puisse également fonctionner comme la finale, à moins que nous ne trouvions comment aligner les cibles de l’IA avec les nôtres avant qu’elle ne devienne superintelligente. Il y en a qui se demandent si une IA forte sera un jour accomplie, et d’autres qui insistent sur le fait que le déploiement d’une IA superintelligente sera certainement avantageux. Chez FLI, nous identifions ces deux possibilités, mais reconnaissons en outre le potentiel pour un système de renseignement artificiel de provoquer délibérément ou involontairement des blessures fantastiques. Nous pensons que l’étude de nos jours peut nous aider beaucoup mieux à nous préparer et à arrêter ces effets potentiellement négatifs plus tard, profitant ainsi des avantages de l’IA tout en évitant les problèmes. La plupart des scientifiques reconnaissent que l’IA superintelligente est improbable pour afficher les pensées intérieures de l’être humain comme vraiment aimer ou ne pas aimer, et qu’il n’y a absolument aucune raison que l’IA devienne volontairement bienveillante ou malveillante. Au lieu de cela, lorsqu’ils examinent comment l’IA peut éventuellement devenir un risque, les professionnels pensent que deux situations sont les plus probables: L’IA est programmée pour faire un mouvement écrasant: les armes autonomes sont des techniques d’intelligence artificielle qui sont programmées pour éliminer. À la disposition d’une mauvaise personne, ces armes pourraient très facilement entraîner des pertes massives. De plus, une compétition d’armement de l’IA pourrait accidentellement conduire à une guerre de l’IA entraînant des pertes massives. Pour éviter d’être contrarié par l’ennemi, ces outils pourraient être conçus pour être extrêmement difficiles à «détourner» simplement, de sorte que les humains pourraient de manière plausible abandonner le contrôle de ce type de scénario. Cette chance est fournie même avec une IA mince, mais augmentera à mesure que les degrés d’intellect et d’autonomie de l’IA s’amélioreront. L’IA est programmée pour prendre des mesures bénéfiques, mais elle développe une technique dommageable pour atteindre son objectif: cela peut avoir lieu chaque fois que nous oublions d’aligner complètement les objectifs de l’IA avec les nôtres, ce qui est extrêmement difficile. Si vous demandez à un véhicule intelligent et obéissant de vous adopter définitivement au terminal de l’aéroport le plus rapidement possible, il pourrait vous y conduire poursuivi par des hélicoptères et inclus dans le vomi, ne faisant pas ce que vous vouliez mais littéralement ce que vous demandiez. Si une méthode superintelligente est chargée d’une entreprise de géo-ingénierie ambitieuse, elle pourrait faire des ravages dans notre écosystème comme une complication, et considérer les efforts individuels pour y mettre fin comme une menace à accomplir. Comme le montrent ces bons exemples, la préoccupation concernant l’IA sophistiquée n’est pas la malveillance mais la compétence. Une IA excellente et intelligente sera incroyablement compétente pour atteindre ses objectifs, et lorsque ces objectifs ne sont pas alignés sur les nôtres, il y a un problème. Vous n’êtes probablement pas un méchant anti-fourmis qui s’attaque aux fourmis par méchanceté, mais lorsque vous êtes aux commandes d’un projet hydroélectrique respectueux de l’environnement et qu’il y a une fourmilière dans la région à bombarder, trop nocif pour les fourmis. Un objectif important des études scientifiques sur la sécurité de l’IA est de ne jamais placer l’humanité à la place de ces fourmis.