(Français) 8 Ramifications stratégiques de l’intelligence artificielle

Sorry, this entry is only available in French. For the sake of viewer convenience, the content is shown below in the alternative language. You may click the link to switch the active language.

En bref:
> Le thème de l'intelligence artificielle (IA) est au cœur du Raout Presans 2017.
> La conception instrumentale dominante de l'IA est naïve.
> L'une des questions clés pour l'avenir est celle de la capacité des IA à communiquer entre elles et avec nous.
> En vue d'une souveraineté digitale européenne, l'IA implique de grandes décisions au sein de l'industrie européenne.

Distinction préliminaire

La stratégie est le domaine des erreurs non réversibles. Nous distinguons entre deux sortes d’erreurs stratégiques :

  • Les erreurs spéculatives n’ont pas d’impact immédiat pour nous. Leur coût est virtuel, étant causé par des conséquences lointaines, imperceptibles, impossibles à évaluer parfaitement. Plus une question est spéculative, plus elle se prête avec difficulté à la formulation d’un pari. La proposition récente d’Elon Musk selon laquelle en cas de Troisième Guerre mondiale, la cause probable en serait l’IA, constitue un exemple de proposition spéculative difficile à évaluer pour nous. Cette question pourrait donner lieu à un pari réservé aux futurs martiens.
  • Les erreurs pragmatiques ont, en revanche, un impact immédiat pour nous : nous sommes presque sûrs d’en apercevoir nous-mêmes les conséquences réelles. Il n’y a en principe pas de difficulté pour établir des paris concernant des questions pragmatiques.

Cet article examine quelques ramifications de l’IA en commençant par les plus spéculatives, et en sinuant vers les plus pragmatiques.

Ramifications spéculatives de l’IA

Ramification 1 : Nous ne connaissons pas les priorités d’une future super-IA.

L’horizon des tenants de la singularité technologique est constitué par la super-intelligence artificielle (voir à ce propos notre billet sur le transhumanisme). À propos de cette nouvelle espèce d’entité, la question suivante se pose : quelles seront ses priorités? La question présente une analogie avec celle de la connaissance de Dieu, entendu comme perfection infinie — à ceci près que c’est la créature qui surpasse le créateur dans le cas de l’IA.

Ramification 2 : Nous ne savons pas bien justifier par un raisonnement les décisions proposées par les modules d’IA actuels.

De manière moins spéculative, les module d’AI existants se comportent aujourd’hui comme des boîtes noires impénétrables. Comme l’explique notre Fellow Philippe Letellier, il y a encore beaucoup d’efforts à accomplir avant de comprendre les raisons d’un résultat fourni par une IA, d’autant plus que deux IA porteuses d’histoires différentes peuvent produire des résultats différents.

Ramification 3 : Les IA seront multiples et se développeront sur des sentiers parfois divergents.

Un système de priorités partagé par un groupe n’est rien d’autre qu’une culture, et le contenu de toute culture et de tout apprentissage est dépendant d’une trajectoire historique plus ou moins singulière. Une IA quelle qu’elle soit n’échappe pas à cette réalité inscrite dans la structure logique même du raisonnement. Les IA peuvent diverger de la même manière que toutes les entités biologiques, historiques ou technologiques soumises à la sélection naturelle peuvent diverger.

Ramification 4 : Rien ne prouve qu’une super-IA sera raisonnable.

Peut-on s’attendre à ce que les priorités d’une super-IA nous paraissent raisonnables? En 2010, le philosophe David Chalmers a opposé deux conceptions du système de priorités d’une super-intelligence artificielle :

  • La première s’inspire librement de Hume et admet la possibilité de super-intelligences stupides, dont la fonction d’utilité à maximiser serait par exemple la quantité totale de trombones dans l’univers visible (exemple donné par Nick Bostrom, également philosophe). En effet, selon Hume la raison est l’esclave des passions, elles-mêmes arbitraires et irrationnelles dans leur contenu. Il serait donc concevable qu’une super-intelligence artificielle tende vers un but manifestement stupide, puisqu’il suffirait de munir cette super-intelligence d’une fonction d’utilité croissante dont le seul argument serait la quantité de trombones accumulés.
  • La seconde conception s’inspire de la philosophie de Kant, selon laquelle le contenu des valeurs admet un ordre rationnel de préférences : certaines valeurs sont donc plus rationnelles que d’autres et la fonction d’utilité à maximiser ne saurait en aucun cas être la quantité totale de trombones dans l’univers.

Ces deux conceptions fournissent donc deux manières divergentes d’anticiper les priorités d’une IA, sans pour autant épuiser le champ des possibles ouverts par cette question. Il est à noter que la vision instrumentale actuellement dominante de l’IA s’appuie sur la première conception. L’IA y apparaît uniquement comme un outil, voire un esclave versatile et bon marché en comparaison du coût de la formation et de l’emploi d’une personne sur vingt ou trente ans.

Cette vision a de fortes chances d’être illusoire.

(Français) 8 Ramifications stratégiques de l'intelligence artificielle
Cartman : vrai visage de la technophilie proliférante contemporaine? (South Park S21E01)

Au sein des questions suscitées par l’IA, les questions instrumentales de performance (parfois d’allure spéculative) et les questions réellement spéculatives et stratégiques (dont la dimension de performance n’est pas absente) ne doivent pas être confondues. Ces dernières ne se dérobent pas devant le paradoxe d’un maître qui obéirait aux décisions de son serviteur tout en étant absolument incapable d’en comprendre, même en principe, les raisons. Les efforts entrepris pour favoriser une super-IA dite amicale (Friendly AI) témoignent des inquiétudes que suscite l’idée d’une optimisation super-intelligente mais en même temps fondamentalement opaque de l’allocation des ressources.

Ramification 5 : Le développement de l’IA rend possible une nouvelle frontière de l’intelligence humaine.

Selon Henri Verdier, il ne faut pas oublier qu’un humain muni d’une IA l’emporte sur une IA seule. Par conséquent, l’IA ne conduira pas à la disparition de toute activité économique humaine. La transformation du travail qui s’esquisse pose au contraire la question de la collaboration entre humains et IA — autrement dit : celle de la forme que prendra l’activité humaine augmentée par l’IA — à condition de ne pas en rester à des IA fonctionnant comme des boîtes noires. La nouvelle frontière de l’intelligence sera, selon Philippe Letellier, une nouvelle frontière de l’intelligence humaine. Autre possibilité : une super-intelligence étrange, ni stupide, ni kantienne.

Ramifications pragmatiques de l’IA

Ramification 6 : L’IA est un marché qui explose hors agendas politiques.

À la suite de plusieurs hivers, l’IA est de retour. GAFAM et fonds d’investissement (les détenteurs de serveurs sirènes selon Jaron Lanier) misent massivement sur cette technologie — sans qu’il y ait besoin de les y inciter au travers d’une mise à l’agenda politique. Au contraire, c’est la régulation du marché de l’IA, la limitation de l’activité d’exploration de l’IA qui font l’objet d’une tentative de mise à l’agenda, notamment par Elon Musk. Sa position sur ce sujet paraît assez isolée au sein de la Silicon Valley. Ailleurs, de grandes puissances souveraines affichent leurs ambitions dans ce domaine stratégique, à commencer par la Chine. Une véritable course planétaire à l’intelligence artificielle est lancée. Chacun sent qu’il s’agit désormais d’une clé essentielle de la souveraineté politique et industrielle. Cédric Villani et Mounir Mahjoubi sont actuellement chargés de proposer une stratégie française dans ce domaine.

Ramification 7 : L’IA a des implications cruciales en matière d’organisation industrielle.

Sur le plan de la souveraineté industrielle, nous avons déjà eu l’occasion d’aborder la question de l’Internet industriel chez GE et chez Siemens. En se limitant à l’Europe et aux USA, il conviendrait d’ajouter à ces noms ceux d’au moins deux autres acteurs : Honeywell et Schneider. Dans le contexte industriel, la conséquence principale de l’IA est l’avantage compétitif apporté par les big data. La taille des ensembles de données accessibles est un facteur décisif du marché de l’IA. Face à cette réalité, le maintien d’acteurs nationaux indépendants en Europe apparaît comme un risque pouvant compromettre les ambitions de souveraineté digitale européenne dans le domaine de l’Internet industriel.

Ramification 8 : L’Europe politique a une chance à saisir.

Sur le plan de la souveraineté politique, la question qui se pose à l’Europe est la suivante : rester ou ne pas rester une colonie numérique totalement nue face aux USA? À ce propos, nous avons récemment parlé d’une proposition forte de métaplateformisation de l’État. Celle-ci se base sur une conception française de l’État comme dernière instance d’arbitrage.

Conclusion

L’IA entraîne de lourdes conséquences stratégiques à la fois sur le plan spéculatif et pragmatique. La gravité de ces conséquences tend à être masquée par une conception instrumentale naïve de l’IA.

Pour aller plus loin : les Plantoïdes de Primavera de Filippi permettent de se représenter d'une manière stimulante les notions correspondant à celles de culture ou d'ADN culturel dans le contexte des automatismes artificiels.
Pour aller encore plus loin : la question des implications de l'intelligence artificielle pour l'industrie 4.0 sera au cœur de l'un des Workshops du Raout 2017, animé par notre Fellow Philippe Letellier.

Leave a Reply

Your email address will not be published. Required fields are marked *