La Longue Traine — Agence SEO – Marketing Digital

Apprendre le rapport bénéfice et risque de l’IA

De SIRI aux automobiles autonomes, les connaissances artificielles (IA) progressent rapidement. Alors que la science-fiction dépeint souvent l’IA comme des robots dotés de fonctionnalités similaires à celles d’un être humain, l’intelligence artificielle peut tout englober, des ensembles de règles de recherche de Google à Watson d’IBM en passant par les outils autonomes. L’intelligence artificielle est aujourd’hui correctement appelée AI de filtre (ou IA affaiblie), en ce sens qu’elle est conçue pour effectuer une tâche de filtrage (par exemple, uniquement la reconnaissance faciale ou uniquement des recherches sur le Web ou uniquement la conduite d’une voiture). Néanmoins, l’objectif à long terme de nombreux experts est de générer une IA générale (AGI ou IA forte). Alors que l’IA mince peut surpasser les humains, quel que soit son processus, comme jouer aux échecs ou résoudre des équations, l’AGI surpasserait les gens dans presque tous les travaux mentaux. À court terme, l’objectif consistant à essayer de maintenir l’effet de l’IA sur la société avantageux motive la recherche dans de nombreux domaines, de l’économie d’entreprise et de la législation aux sujets techniques tels que l’affirmation, la crédibilité, la protection et le contrôle. Bien que ce ne soit guère plus qu’une nuisance mineure si votre ordinateur portable tombe en panne ou est piraté, il deviendra beaucoup plus crucial qu’un système d’IA fasse ce que vous voudriez qu’il accomplisse s’il contrôle votre véhicule, votre avion, votre stimulateur cardiaque, votre automatique. programme d’investissement ou peut-être votre réseau électrique. Un autre problème d’expression brève est d’arrêter une course désastreuse aux armes mortelles autonomes. Finalement, referencement gratuit une question essentielle pour vous est de savoir ce qui va se passer si la recherche d’une IA forte réussit et qu’un système d’IA devient bien meilleur que les humains dans tous les domaines mentaux. Comme l’a révélé I.J. Bien en 1965, créer des méthodes d’IA plus sages est en soi un travail cognitif. Un tel programme pourrait subir une amélioration personnelle récursive, provoquant une explosion d’intellect laissant l’intellect individuel considérablement alimenté. En inventant des technologies innovantes, ce type de superintelligence peut nous aider à nous débarrasser de la guerre, de la maladie et de la pauvreté, de sorte que le développement d’une IA solide peut être la plus grande occasion dans l’histoire de l’être humain. Certains experts ont cependant fait part de leur inquiétude, car cela pourrait également devenir la finale, sauf si nous apprenons à aligner les cibles de l’IA avec les nôtres avant qu’elle ne soit superintelligente. Il y en a quelques-uns qui s’inquiètent de savoir si une IA forte sera jamais accomplie, et d’autres qui insistent sur le fait que la création d’une IA superintelligente est garantie d’être bénéfique. Chez FLI, nous reconnaissons ces deux opportunités, mais identifions en outre le potentiel pour une méthode de renseignement artificiel de déclencher intentionnellement ou accidentellement des dommages fantastiques. Nous savons que les études d’aujourd’hui peuvent nous aider à mieux nous préparer et à arrêter ce type d’implications potentiellement mauvaises plus tard, profitant ainsi des avantages de l’IA tout en évitant les problèmes. La plupart des chercheurs reconnaissent qu’une IA superintelligente est peu susceptible de montrer à l’être humain des pensées intérieures telles que jouir ou détester, et il n’y a aucune raison d’anticiper que l’IA devienne volontairement bienveillante ou malveillante. Au lieu de cela, lorsqu’ils considèrent comment l’IA pourrait devenir un danger, les professionnels estiment que deux scénarios sont les plus probables: L’IA est programmée pour prendre des mesures dévastatrices: les armes autonomes sont des techniques de connaissance synthétique qui sont programmées pour éliminer. À la disposition d’un mauvais individu, ces armes pourraient très facilement entraîner des pertes massives. De plus, une compétition de biceps et de triceps IA pourrait involontairement provoquer une bataille IA qui entraînerait également des pertes de taille. Pour éviter d’être contrarié par l’ennemi, ces outils seront créés pour être très difficiles à «éteindre» simplement, de sorte que les êtres humains pourraient vraisemblablement perdre la charge de ce genre de circonstance. Ce risque n’est que celui qui existe malgré une IA mince, mais qui augmentera à mesure que les niveaux de connaissance de l’IA et d’autonomie augmenteront. L’IA est conçue pour faire quelque chose d’avantage, mais elle développe une manière dangereuse d’atteindre son objectif: cela peut se produire chaque fois que nous négligeons d’aligner totalement les objectifs de l’IA avec les nôtres, ce qui est extrêmement difficile. Dans le cas où vous demandez à une automobile intelligente obéissante d’en adopter une au terminal de l’aéroport le plus rapidement possible, cela peut vous permettre de vous y rendre chassé par des hélicoptères et inclus dans le vomi, en effectuant non pas ce que vous vouliez mais pratiquement ce que vous avez demandé. Si un produit superintelligent se voit confier le travail d’un projet de géo-ingénierie engagé, il pourrait causer des dommages à notre écosystème comme un effet secondaire et considérer les efforts humains pour y mettre fin comme une menace à affronter. Comme l’illustrent ces bons exemples, le souci de l’IA avancée n’est pas la malveillance mais les compétences. Une IA super intelligente sera probablement très efficace pour atteindre ses objectifs, et au cas où ces objectifs ne seraient pas alignés sur les nôtres, il y a un problème. Vous n’êtes probablement pas un méchant anti-fourmis qui marche sur les fourmis par méchanceté, cependant, si vous êtes responsable d’un projet hydroélectrique de vitalité écologique et qu’il y a une fourmilière dans la région à bombarder, aussi mauvais pour les fourmis. . Un objectif important des études scientifiques sur la sécurité de l’IA est de ne jamais repérer l’humanité à la place de ces fourmis.