fbpx

Ecrit par : Adrien Aïach

Publié le : 29/12/2021

Selon une étude publiée par Research & Markets en juillet 2021, le marché de l’intelligence artificielle pourrait frôler les 300 miliards de dollars (291,5 Mds $) dès 2026, alors qu’il était estimé à 47,1 Mds $ en 2020.

Cela représente une croissance annualisée de 34,1%. Pour soutenir ce chiffre, les auteurs soulignent la vitesse rapide d’adoption de cette technologie et ses applications dans toutes les industries, démontrant que la démocratisation de l’I.A est inévitable.

Tout comme Internet fut l’opportunité des années 2000, que le Big Data était l’enjeux des années 2010, que le Cloud est le sujet technologique des années 2020, je pense que l’Intelligence Artificielle sera la préoccupation majeure des années 2030.

Mais le problème, c’est que si vous êtes comme la plupart des investisseurs, vous n’avez pour l’instant aucune stratégie pour profiter du décollage de ce marché. Dans cet article, je vais vous expliquer comment fonctionne l’I.A et vous présenter 3 ETF pour investir dans cette technologie.

Lire également : Faut-il encore investir en Chine ?

Citation du Dr Kai-Fu Lee : “L’Intelligence Artificielle va changer le monde plus que tout dans l’histoire de l’humanité. Plus que l’électricité.”
Kai-Fu Lee est un informaticien, homme d’affaires et écrivain taïwanais. Il a développé le premier système de reconnaissance vocale continue au monde. Dans son livre, publié en 2018, « I.A. La Plus Grande Mutation de l’Histoire », Lee explique comment la Chine est en passe de devenir le leader mondial en matière d’intelligence artificielle. Sa page Wikipédia est accessible ici. Crédits photo : Bloomberg, Forbes.

 

I. Qu’est-ce que l’Intelligence Artificielle et comment fonctionne-t-elle ?

L’Intelligence Artificielle est une branche de l’informatique traitant de la création de machines et de logiciels capables d’un comportement intelligent, semblable à celui que pourrait avoir un humain, et nécessitant à la fois des capacités en matière de hardware et de software.

Puisqu’il s’agit d’une définition large qui inclut plusieurs disciplines, comme les mathématiques ou la robotique, et l’intelligence artificielle ne représente donc en aucun cas un secteur d’activité à proprement parler : il s’agit plutôt d’un ensemble de théories et de pratiques.

La différence entre une machine « normale » et une machine « intelligente » est qu’une machine « normale » n’est seulement capable d’exécuter les tâches pour lesquelles elle a été programmée. Cela signifie que ces tâches doivent être invariables et strictement définies, ou à défaut, nécessiter une intervention humaine. A ce titre, la robotique a fait son apparition dans l’industrie au début des années 60 pour réaliser des tâches répétitives avec une précision constante et ainsi gagner en productivité, mais sans que les robots ne soient totalement indépendants et autonomes.

Les machines ne peuvent (pour l’instant) pas nous remplacer car la différence entre les humains et les machines est qu’un humain apprend constamment de son environnement et sait s’adapter à chaque nouvelle situation grâce à son expérience.

Pourtant, l’objectif de l’Intelligence Artificielle est de permettre aux machines de nous assister dans des tâches toujours plus complexes, et nous savons désormais doter les ordinateurs de la capacité indispensable à cette mission qui lui manquait auparavant : celle d’apprendre.

A / Apprentissage et Inférence : à la découverte du Machine Learning

Le Machine Learning (Apprentissage Automatique en français) est une méthode d’analyse statistique en deux phases permettant à un ordinateur d’apprendre comme pourrait le faire un humain.

Au cours de la première phase, on soumet des données d’apprentissage à l’ordinateur. Ce dernier repère les variables d’entrées et analyse la corrélation avec les variables de sortie.

Par exemple, on soumet à l’ordinateur des photos d’animaux, en lui indiquant lesquelles sont des photos de chats, et lesquelles ne le sont pas. Cela lui permet de déduire un modèle, un ensemble de règles, qu’il va pouvoir suivre dans le futur.

Lors de la seconde phase, l’inférence, l’ordinateur va recevoir un jeu de données, sans disposer des variables de sorties. Il devra donc suivre les règles qu’il aura définies et déduire les variables de sortie.

En reprenant l’exemple précédent, après avoir entrainé l’ordinateur, on lui présente un nouveau jeu de photos, sans lui indiquer lesquelles sont des photos de chats. L’ordinateur devra le déterminer et ses prévisions seront corrigées par un humain, à la manière d’un test scolaire.

Cette méthode permet donc à une machine d’effectuer une tâche non pas en suivant un procédé rigoureux, mais en s’adaptant à son environnement et à de nouvelles données. Grâce aux multiples données que l’algorithme a extraites des photos, cela lui permettra à l’avenir de reconnaitre un chat puisqu’il trouvera des similitudes entre les données qu’il connait, et la photo qu’on lui présente.

Les données d'apprentissage permettent de définir un modèle. Dans un second temps, le traitement de nouvelles données permet à l'algorithmes de faire des prédictions, qui seront corrigées par un humain.
Le fonctionnement du Machine Learning en deux étapes est finalement assez intuitif à comprendre. Source du graphique : Wavestone.

B / La révolution du Deep Learning

Dans le cadre du Machine Learning, les données sont triées, nettoyées, et organisées. Une intervention humaine est nécessaire pour indiquer la bonne réponse à l’ordinateur : c’est ce que l’on appelle l’apprentissage supervisé.

Mais dans la réalité, les données ne sont pas toujours exactes, ni labellisées et encore moins organisées. Elles sont de plus en plus complexes et de plus en plus abstraites. Et pour créer des algorithmes intelligents, il est nécessaire de pouvoir s’affranchir de cette contrainte.

Le Deep Learning est une technique d’apprentissage automatisée qui permet d’entrainer la machine sans intervention humaine. La notion de Machine Learning englobe d’ailleurs celle de Deep Learning.

Pour y parvenir, les modèles de Deep Learning utilisent une structure d’algorithmes en couches appelée réseau neuronal artificiel qui s’inspire du réseau neuronal biologique du cerveau humain. Si cela conduit à un processus d’apprentissage bien plus performant que celui des modèles de Machine Learning traditionnels, il est également bien plus difficile d’obtenir un modèle fonctionnel.

La différence entre le Machine Learning et le Deep Learning réside dans la manière dont les données sont extraites.
Grâce à sa structure de Réseaux Neuronaux, un algorithme de Deep Learning est capable d’extraire les données de manières autonome. Source : Jedha.co

L’avantage principal de cette méthode est que l’algorithme va continuer à s’améliorer au fil du temps, et ce, sans intervention humaine, à la manière d’un humain gagnant en expérience à la force de son travail.

Le Deep Learning est considéré comme la technologie pilier qui permettra l’avènement d’une vraie intelligence artificielle, car le Machine Learning ne permet pas, de par la nature supervisée de l’apprentissage, de rendre totalement autonome un ordinateur.

Cependant, pour concrétiser une telle prouesse technologique, il est nécessaire de disposer de deux éléments :

  • une quantité massive de données permettant d’entrainer la machine
  • une puissance de calcul importante pour traiter ces données

II. Le développement de l’IA : une histoire d’Hardware et de Big Data

L’histoire de l’Intelligence Artificielle est pleine de hasard. En réalité, les innovations ayant permis l’avènement du Deep Learning n’ont jamais été pensées dans ce but. Pour comprendre le futur de l’Intelligence Artificielle, il est nécessaire de saisir le cheminement technologique qui a permis son développement.

A / Pourquoi on vous demande de cliquer sur des photos de chats …

L’expression Big Data est apparue en 1997 et est liée à l’explosion des capacités des systèmes de stockage. Dès 2002, la majorité du stockage de données s’est faite sur des supports digitaux, en opposition aux supports analogiques (cassette, vinyle, dvd …) en vigueur auparavant, permettant de stocker des données en quantités (presque) illimitées, plus rapidement et à moindre coût.

En 2007, la capacité de stockage totale mondiale était de l’ordre de 300 exabytes (300 milliards de GB). En 2020, elle était de 6,8 zettabytes (6 800 milliards de GB), et cette tendance ne fait que s’accélérer, puisque la capacité de stockage mondiale en 2024 est estimée à 13,8 zettabytes (13 800 milliards de GB).

Plus concrètement, le premier iPhone (sorti en 2007) était décliné en des versions aux capacités de stockage de 4GB, 8GB et 16GB. Le dernier iPhone 13 offre quant à lui 128GB, 256GB ou 512GB, soit une multiplication par 32 en moins de 15 ans.

L’humanité produit et consomme chaque jour des quantités faramineuses de données pouvant être exploitées pour le Machine Learning, et cette tendance ne fait que s’accélérer.

Avec le développement de l’IoT (Internet of Things, les Objets Connectés), chaque objet physique est un capteur potentiel, et tout est désormais quantifié et enregistré, à commencer par votre activité en ligne.

Il arrive régulièrement que l’on vous demande de cliquer sur des photos de chats (ou même de chiens, de passages piétons ou de tracteurs) pour certifier que vous êtes bien un humain : c’est le principe du CAPTCHA (pour Completely Automated Public Turing test to tell Computers and Humans Apart).

Au delà de ses vertus en matière de sécurité, le CAPTCHA aide aussi Google à affiner ses algorithmes de reconnaissance visuelle grâce à l’effort collectif : « reCAPTCHA aide à résoudre les problèmes difficiles de l’intelligence artificielle. Des images de haute qualité étiquetées par des humains sont compilées dans des ensembles de données qui peuvent être utilisés pour former des systèmes d’apprentissage automatique. Les communautés de recherche bénéficient de ces efforts qui aident à construire la prochaine génération de solutions d’intelligence artificielle révolutionnaires. »

Grâce à la démocratisation du Big Data nous disposons donc d’un vivier croissant de ressources pour le développement d’algorithmes intelligents. Mais pour exploiter autant de données, il est nécessaire de disposer d’une puissance de calcul proportionnelle.

B / … et pourquoi les jeux vidéos sont à l’origine de la plus grande avancée en matière d’IA

Dans tout marché grand public, il existe une niche aux besoins spécifiques et urgents, prête à payer plus cher pour mettre la main sur l’innovation la plus récente.

S’attaquer à ce segment de marché est une bonne stratégie pour développer une technologie onéreuse car l’entreprise ne dispose pas des capacités de production nécessaires ni pour diffuser son innovation à grande échelle, ni pour bénéficier d’économies d’échelle.

C’est notamment le cas avec l’informatique, dont certaines innovations ont été poussées par la demande des gamers, et l’une d’entre elle revêt d’une importance capitale pour l’Intelligence Artificielle : la carte graphique.

Lancée en 1999, la carte graphique répond à des besoins spécifiques en matière de traitement d’image, de vidéo, et même de 3D. C’est elle qui gère les opérations de calcul permettant l’affichage des images sur l’écran.

Pour permettre une telle avancée dans ces domaines, cette innovation repose sur une structure différente de celle d’un processeur, car afficher un rendu graphique tel que ceux dont nous disposons aujourd’hui aurait nécessité une puissance de calcul trop importante en se basant sur ce seul composant.

Un processeur (en anglais central processing unit, CPU) est un peu comme le cerveau ou le chef d’orchestre de l’ordinateur : c’est lui qui traite les tâches à exécuter. Son architecture fait qu’il peut effectuer n’importe quelle tache, peu importe sa difficulté, mais toujours l’une après l’autre, malgré l’illusion du multitâche, qui n’est simplement due qu’à la rapidité de l’exécution.

Pour être précis, les processeurs ne peuvent traiter simultanément autant de tâches qu’ils ne possèdent de coeurs. Mais même pour les ordinateurs les plus puissants d’aujourd’hui, dont les processeurs disposent de quelques dizaines de cœurs, cela ne suffiraient pas à effectuer toutes les opérations nécessaires pour faire tourner un jeu vidéo de manière fluide avec un rendu graphique satisfaisant.

Car avec les paramètres de résolution les plus courants, un écran affiche plus de 2 millions de pixels, et l’ordinateur doit décider ce qu’il faut faire avec chacun d’eux pour créer une image, au moins une soixantaine de fois par seconde, en parallèle de toutes les autres tâches devant être effectuées pour que l’ordinateur fonctionne.

La comparaison des ordres de grandeurs rend évident le besoin de disposer d’une puissance de calcul capable d’effectuer des opérations simples et répétitives, et surtout, simultanément. C’est la qu’intervient la carte graphique. De par son architecture, elle possède généralement plus d’un millier de coeurs, permettant ainsi d’effectuer toutes les opérations nécessaires à l’affichage visuel.

Schéma mettant en avant les différences entre un processeur et une carte graphique.
Les coeurs d’une carte graphique (GPU) sont plus nombreux, mais moins puissants que ceux d’un processeur (CPU). Source : Omni Sci

Sur le schéma ci-dessus, on se rend bien compte de la différence d’architecture entre le processeur (CPU) et la carte graphique (GPU). Les nombreux coeurs, moins puissants, de la carte graphique ont été conçus pour permettre le traitement d’opérations spécifiques et répétitives.

La carte graphique offre ainsi un compromis par rapport au processeur : moins de flexibilité, mais plus de réactivité. Pour vous rendre compte de la différence d’efficacité avec un processeur , NVIDIA, l’entreprise qui a inventé la carte graphique, a mis en ligne une vidéo d’une minute qui vaut la peine d’être vue.

Extrait de la vidéo de démonstration de NVIDIA "Mythbusters Demo GPU versus CPU"
Dans cette vidéo, vous découvrirez comment cette machine peut réussir à (presque) peindre la Joconde … instantanément ! Source : NVIDIA

Cette faculté de la carte graphique a trouvé son utilité pour des applications étrangères à la vidéo ou la 3D, qui requiert elles aussi des tâches simples et répétitives, mais nombreuses, à effectuer. C’est le cas du Machine Learning, un processus exigeant en termes de calcul de par les grands volumes de données à analyser simultanément.

Grâce à sa stratégie, NVIDIA a pu dans un premier temps déployer sa technologie à grande échelle dans des millions d’ordinateurs à travers le monde, ce qui lui a permis de connaitre une croissance exponentielle et rentable et de proposer désormais des cartes graphiques spécifiquement dédiées au Deep Learning.

Visuel de la carte graphique A100 de NVIDIA
Une telle carte graphique n’est évidement pas faite pour être insérée dans votre ordinateur … Source : NVIDIA

III / L’état de l’Intelligence Artificielle aujourd’hui

Malgré toutes les possibilités permises par les avancées technologiques tant sur le plan du software (Deep Learning) que du hardware (Carte Graphique), un important goulot d’étranglement à la démocratisation de « vraies » intelligence artificielle persiste.

A / La source du problème

Le problème est simple et a bien été identifié, traduit par l’acronyme « GIGO », pour « Garbage In, Garbage Out« . Le concept stipule que la qualité du résultat d’un algorithme dépend de la qualité des données qu’il reçoit.

Le Machine Learning est une technologie fantastique, mais qui ne peut pas faire des miracles. Tout comme un athlète qui s’entraine ou un élève qui apprend, aucune ordinateur ne peut devenir réellement intelligent sans qu’une attention particulière ne soit portée aux données qu’on lui fournit.

Alimenter le modèle avec de mauvaises données conduit à des résultats inutiles auxquels on ne peut se fier. La qualité des données peut à elle seule déterminer le succès ou l’échec de chaque projet d’intelligence artificielle.

Pour le moment, il n’existe pas de collaboration à grande échelle entre les différents acteurs du Big Data, et ce, pour plusieurs raisons.

D’abord, la donnée est aujourd’hui une ressource à monnayer. Un partage efficace des données entre les entreprises nécessiterait un modèle commercial différent du modèle actuel, puisque le business de l’information repose sur l’exclusivité.

En outre, les divers acteurs ont des intérêts et des objectifs différents : alors que certains cherchent à gagner un avantage concurrentiel en exploitant des données propriétaires en interne (et qui ne doivent donc pas tomber entre les mains d’un concurrent), d’autres vendent simplement l’accès aux informations qu’ils ont récoltées.

En conséquence, les bases de données open-source sont rares. Une entreprise souhaitant développer sa propre intelligence artificielle devra soit récolter les données par elle-même (une processus long et risqué), soit les acheter (une méthode onéreuse et rigide).

De toute manière, des données externes seront probablement nécessaires, car aucune organisation ne peut toutes les rassembler. Elles proviendront de sources différentes, avec des formats qui leur sont propres, rendant la standardisation et l’intégration au sein d’un modèle difficile.

Enfin, les API, ensembles de protocoles permettant l’intégration de plusieurs systèmes d’information, sont onéreuses à développer et à entretenir : même si les différentes entreprises du Big Data collaboraient, cela ne ferait que déplacer le problème.

Dès lors, le manque de données n’est pas le principale obstacle que rencontre le Machine Learning, étant donnée la masse d’information disponible qui ne cesse d’augmenter. La nuance est qu’il n’y a pas assez de personnes compétentes pour exploiter ces données, ce qui nécessite un minutieux travail de nettoyage et d’organisation de bases de données.

Même si l’on observe un intérêt universitaire croissant pour les sciences des données et l’intelligence artificielle, il sera difficile de répondre à la demande de data scientists et d’experts en Machine Learning dans les années à venir, avec à terme, un impact financier certain.

Pour l’instant, force est de constater que l’employeur ne sait souvent pas ce dont il a besoin, car il n’a pas forcément les compétences requises, et peine à calibrer son recrutement.

Des salaires hautement compétitifs sont nécessaires pour attirer les talents dans ce secteur, mais représentent également une charge financière importante pour les entreprises, à laquelle on doit ajouter le coût de l’investissement dans la formation des employés.

Cette charge est par ailleurs aggravée par un problème de fidélisation. Les collaborateurs, frustrés par la réalité de leur métier -fastidieux, répétitif et pas très épanouissant-, démissionnent plus rapidement que dans les autres métiers de la tech.

Si cela ne suffisait pas à freiner les candidats, les entreprises mettent leurs collaborateurs sous pression pour réaliser l’impossible, après avoir payé le prix fort pour l’embauche de leurs data scientists, la plupart du temps via des cabinets spécialisés, ce qui se solde souvent par un licenciement. Et lorsque le casse-tête humain se transforme en énigme financière, il n’est plus étonnant que la taille des levées de fonds propulse désormais la moindre A.I start-up aux porte de la bourse.

B / La bulle de l’intelligence artificielle est-elle inévitable ?

Malgré toutes les promesses d’une technologie futuriste, développer une intelligence artificielle coûte (très) cher, et il est légitime de se demander s’il n’est pas trop tôt pour investir.

Du côté des investisseurs, l’intérêt pour l’intelligence artificielle a explosé depuis 2018. Selon des données de Pitchbook rapportées par Bloomberg, le montant mondial des investissements en capitaux dans les entreprises de l’intelligence artificielle est passé de près de 324 millions de dollars en 2017, à plus de 1,1 milliards de dollars l’année suivante. 2021 devrait largement dépasser le pallier des 2,5 milliards de dollars, symbole d’une tendance qui ne fait qu’accélérer.

Mais si de nombreuses entreprises vantent leur maitrise de cette technologie et que de multiples projets fleurissent, la réalité est souvent bien décevante, et l’on est plus proche du « Fake It Till You Make It » que de la véritable rupture technologique.

En 2019, une étude de MMC Ventures a démontré, sur la base d’informations publiques et d’entretiens avec des dirigeants, qu’il n’existait aucune trace d’intelligence artificielle dans 40 % des 2 830 start-ups se revendiquant « I.A. » en Europe.

Les intelligences artificielles ne sont tout simplement pas au point, et surtout, requièrent encore trop d’intervention humaine pour être considérées comme telles. Pourtant, ce n’est pas une raison de perdre espoir, car toutes les innovations technologies connaissant une période de turbulences à leurs débuts, et l’histoire nous a montré qu’il fallait être patient.

Nombreux sont ceux qui ont perdu l’intégralité de leurs économies lors de l’éclatement de la bulle internet en l’an 2000. La bourse avait attiré pléthore d’investisseurs particuliers qui boudent désormais les marchés financiers, traumatisés par la désillusion de promesses de richesse faramineuse.

En 2013, lorsque le Bitcoin a atteint $1000 pour la première fois, tout le monde s’est mis à penser qu’il s’agissait d’une bulle, et le cours de la cryptomonnaie s’est effondré : il ne repassera le pallier symbolique des $1000 qu’en 2017, après avoir perdu plus des deux tiers de sa valeur entre temps.

On dira comme toujours « Cette fois ci, c’est différent », pour justifier de la frénésie des marchés pour financer des projets de plus en plus nombreux, mais de qualité hétérogène. De nombreux entreprises estampillées « Intelligence Artificielle » viendront séduire les investisseurs en bourse, et il faudra minutieusement sélectionner les projets qui ont de l’avenir, car nombreuses seront les opportunités d’investissement qui se solderont par de cuisants échec, et cela ne sera évident qu’à posteriori.

Ne fallait-il pas investir dans Apple ou Amazon en l’an 2000 ? Ces entreprises ont survécu à l’éclatement de la bulle, et personne ne remettrait aujourd’hui en cause la clairvoyance de ceux qui ce sont cramponnés à ces investissements, malgré un timing vraisemblablement douteux.

N’était-ce pas une bonne idée d’acheter quelques Bitcoins en 2013 ? Malgré tout, ceux qui avait compris la valeur de la cryptomonnaie à l’époque ne les aurait céder pour rien au monde, surtout pour un prix inférieur à ce qu’ils avaient payé.

Il est indéniable que l’Intelligence Artificielle va être une révolution, car elle va démultiplier la productivité des facteurs de production : tout sera plus facile, plus rapide et moins cher à produire. S’il est évident qu’il y aura de la casse, l’Intelligence Artificielle reste une opportunité rare, comme il n’en existe qu’une tous les 25 ans, de réaliser des plus value exponentielles et de multiplier la valeur de son capital par 10, 100, 1000 et même plus, pour les plus patients qui sauront tirer leur épingle du jeu.

IV / Pourquoi acheter des ETF intelligence artificielle pour profiter du décollage du marché ?

Si l’investisseur actif peut espérer un rendement plus élevé du fait de ses efforts pour gérer son portefeuille et sélectionner par lui-même des actions, cela ne l’empêche pas d’acheter des parts de certains fonds pour mettre en place sa stratégie.

A / La gestion passive : à contre-courant de l’asset management traditionnel

Un ETF (Exchange Trading Fund) est un fond de placement en valeurs mobilières négociables en bourse. Leurs performances répliquent celle d’indices boursiers car les gérants investissent dans des paniers d’actions pondérées de manière similaire.

Puisqu’il s’agit d’une gestion passive (aucun travail de recherche n’est effectué par le gérant, qui cherche à obtenir la même performance qu’un indice de référence), les frais de gestion sont moindres que ceux affichés par des fonds gérés activement (un travail de recherche et de stock-picking est effectué par le gérant pour obtenir une performance supérieure à celle d’un indice de référence).

Ces ETF permettent également d’investir dans des thématiques dans leur globalité et de diversifier facilement son portefeuille en investissant sur des dizaines d’actions différentes en une seule fois.

La société de gestion qui émet l’ETF aura probablement plus facilement accès aux actions de l’indice sous-jacent se trouvant dans des pays étrangers. Par exemple, en France, il est facile d’investir sur les financiers américains, mais vous pourrez difficilement détenir des titres japonais dans votre portefeuille. Les ETF résolvent ce problème à moindre frais.

Un ETF peut être négocié à tout moment durant les heures d’ouverture de la bourse, au prix de sa valeur liquidative. La valeur liquidative est le prix d’une part du fond, simplement calculée en divisant la valeur total des actifs sous gestion par le nombre de parts.

La mention UCITS ETF signifie simplement « Undertakings for the Collective Investment in Transferable Securities Exchange Traded Fund ». L’UCITS est un cadre réglementaire de la Commission européenne qui crée un régime harmonisé dans toute l’Europe pour la gestion et la vente de fonds communs de placement.

Les fonds OPCVM peuvent être enregistrés en Europe et vendus à des investisseurs du monde entier en appliquant des exigences réglementaires et de protection des investisseurs unifiées. Les sociétés émettrices de fonds OPCVM qui respectent les normes sont exemptés de la réglementation nationale dans les différents pays européens. Pour les investisseurs, il s’agit donc d’un gage de qualité, mais les ETF n’en restent pas moins des actifs avec un important risque de perte en capital.

B / Réduire le risque sans (trop) sacrifier la performance

Si la philosophie du stock-picking est de trouver l’aiguille dans la botte de foin, avec les ETF, il s’agirait plutôt d’acheter la botte de foin en entier : au moins, on est sûr que l’aiguille sera dedans.

Même s’il est certain que l’Intelligence Artificielle représente une opportunité de plus-values exponentielles pour les investisseurs, bien malin est celui qui saura investir dans les bonnes sociétés, au bon moment, et au bon prix, sans jamais paniquer face aux aléas des marchés.

Plus un marché est volatil, plus il est nécessaire de détenir un nombre élevé de titres, afin de réduire la volatilité d’un portefeuille. Techniquement, il s’agit de maximiser le ratio de Sharp, rapport entre la performance d’un portefeuille et de sa volatilité.

En achetant un ETF avec un biais sectoriel en faveur de l’Intelligence Artificielle, votre investissement sera moins volatil qu’en achetant quelques actions, tout en vous assurant un certain niveau de performance, car vous aurez investi dans le secteur en général, et non dans une poignée de sociétés.

Cela vous évitera de vous tromper et d’investir dans les mauvaises actions, ce qui, soyons honnête, a plus de chance de se produire que dénicher le prochain Amazon. Car pour gagner le gros lot, la formule est contre-intuitive : certes il est possible de gagner beaucoup d’argent si vous arrivez à surfer sur la bulle avant les autres, mais ceux qui s’enrichiront de manière exponentielle sont ceux qui auront fait le pari du marathon. Et sur un horizon de 15 à 20 ans, il est trop risqué de faire des sélections « à la main », même pour les investisseurs professionnels.

Bien sûr, il est important de consulter les différents documents d’informations, et je vous invite à creuser un peu pour découvrir les sociétés qui composent l’indice sous-jacent que réplique votre ETF : votre choix n’en sera que plus éclairé.

V / Ma sélection des 3 meilleurs ETF Intelligence Artificielle

Après ces quelques précautions, il est temps de découvrir les 3 ETF qui ont attiré mon attention pour investir dans l’intelligence artificielle.

A / Lyxor MSCI Robotics & AI UCITS ETF

Lyxor Asset Management, filiale française de la Société Générale, vendue à Amundi au cours de l’année 2021 offre une gamme complète d’ETF.

J’apprécie particulièrement leur moteur de recherche qui permet de trouver des produits avec un haut degré de personnalisation, pour répondre parfaitement à vos besoins stratégiques.

Visuel du moteur de recherche d'ETF de Lyxor.
Lyxor offre une multitude d’options de recherche pour trouver l’ETF qui vous convient le mieux. Source : Lyxor

Parmi ses nombreux ETF, Lyxor en propose un sur le thème de l’intelligence artificielle, qui vise à répliquer les performances de l’indice MSCI ACWI IMI Robotics and AI ESG Filtered Index, nominée en USD. Il est important de noter que l’ETF ne réplique cet indice que depuis le 8 novembre 2021. Il répliquait auparavant l’indice Rise of the Robots NTR.

Avec NVIDIA et AMD, les deux valeurs les plus importantes, représentant respectivement 3,38% et 3,23%, l’indice dispose d’une forte empreinte dans le hardware. Ces deux entreprises sont en passe de devenir les leaders mondiaux des marchés de la carte graphique et des processeurs, et seront amenées à être au coeur des enjeux de puissance de calcul pour le développement de la carte graphique. Egalement, AMD a annoncé vouloir procéder à l’acquisition de Xilinx (4ème valeur de l’indice, 2,97%) pour créer un leader de l’informatique haute performance, renforçant d’autant plus son poids dans l’indice.

Enfin, l’indice regroupe quelques éditeurs de logiciel, comme Adobe (8ème valeur de l’indice, 2,15%) ou Salesforce.com (10ème valeur de l’indice, 2,02%).

Il est néanmoins fortement exposé aux Etats-Unis (79,02%), un biais géographique qui se retrouve dans beaucoup d’ETF portés sur l’intelligence artificielle et qui peut s’avérer risqué, car les valeurs américaines ont tendance à être légèrement survalorisées, tandis que l’on peut fréquemment trouver de bonnes affaires à l’étranger.

Peu cher (TER, Total Expense Ratio de 0,40%) et facile à négocier chez votre broker, cet ETF Lyxor est un incontournable en France. A noter que sa devise de référence est l’euro, mais n’est pas éligible au PEA.

B / BOTZ Robotics & Artificial Intelligence

Ce deuxième ETF est proposé par la société Global X, qui a la particularité de concevoir des ETFs innovants pour investir dans des secteurs technologiques comme le Lithium et les Batteries, les Mines de Cuivres, le Cloud COmputing, l’Uranium ou les Fintechs

L’ETF cherche à répliquer l’indice Indxx Global Robotics & Artificial Intelligence Thematic. La méthodologie de composition de l’indice est disponible ici (en anglais).

Cet ETF présente une forte exposition à NVIDIA. Pesant pour 11,71% des actifs, il s’agit de la principale valeur de l’ETF. Ce parti pris me plait, d’autant plus que l’ETF n’est composé que de 36 valeurs différentes, et permet ainsi d’avoir une compréhension exhaustive de ce en quoi on investit.

Autre biais d’exposition intéressant, les valeurs américaines ne représentent que 46,7% de l’ETF, alors que les valeurs japonaises, d’ordinaire difficile d’accès, pèsent pour 34,6%.

Dernier point positif, Global X joue la carte de la transparence et donne une multitude d’informations et de statistiques concernant leurs ETF, avec notamment des ratios de valorisation ou de risques (PER, Price-to-Book value, Beta …). Enfin, l’ETF affiche un TER de 0,68%.

C / ROBO Global Robotics & Automation ETF

Le troisième ETF de cette sélection est proposé par ROBO Global, une société d’indexation, de conseil et de recherche dont l’objectif est d’aider les investisseurs à saisir les opportunités uniques des entreprises de robotique, d’intelligence artificielle et de technologie des soins de santé à croissance rapide dans le monde entier.

ROBO Global ne propose que 3 ETF : le Global Artificial Intelligence ETF,  Global Healthcare Technology & Innovation ETF et le Global Robotics & Automation ETF.

Spécialisé dans la robotique et l’automatisation, ce troisième ETF permet d’investir dans un secteur un peu plus niché. L’ETF réplique l’indice ROBO Global Robotics and Automation, conçu par la société. Par exemple, contrairement aux deux autres ETF de cette sélection, NVIDIA n’est que la 46ème valeur de l’indice.

Au niveau de l’exposition géographique, les Etats-Unis représentent 46% des valeurs de l’ETF, contre 30% pour l’Asie (majoritairement au Japon). Il présente une ventilation plutôt équilibrée entre Applications et Technologie, consultable dans l’investment case mis en ligne ici.

ROBO fournit également un grand nombre de statistiques et autres mesures concernant leurs ETF. Je vous recommande de lire attentivement les documents de recherche mis à votre disposition. Ils vous donneront un point de vue détaillé des différentes opportunités d’investissement.

Enfin, le TER de cet ETF s’élève à 0,95%, ce qui en fait l’ETF le plus cher de cette sélection.

Conclusion

Malgré l’attrait de l’opportunité que représente l’Intelligence Artificielle, il semblerait que les marchés financiers ne se soient pas encore vraiment penchés sur le sujet. En effet, la performance de chaque ETF de cette sélection est inférieure à celle du Nasdaq 100, l’indice américain de référence pour les valeurs technologiques.

Si cela peut inquiéter à première vue, ce phénomène est aussi porteur d’une bonne nouvelle : le secteur de l’intelligence artificielle et de la robotique n’est pas encore sur-évalué, et les investisseurs les plus patients qui se positionneront dès aujourd’hui seront les premiers à profiter du décollage de ce marché.

Avec l’intérêt croissant des investisseurs à l’égard de l’intelligence artificielle, il n’est pas improbable que de nombreux produits soient mis sur le marché : libre à vous d’en choisir un ne faisant pas parti de cette sélection !

Et si vous hésitez encore quant au choix de l’ETF à ajouter à votre portefeuille, rien ne vous empêche d’en prendre plusieurs simultanément. Cela vous garantira une bonne exposition à un grand nombre d’actions et vous permettra de diversifier facilement votre portefeuille.

A propos de l'auteur

Conseiller en Investissements Financiers indépendant et passionné par le monde de la bourse depuis 2013, j’aide les stock-pickers à battre le marché pour qu’ils puissent consacrer leur temps et leur énergie à ce qui compte vraiment pour eux.

Cet article vous a plu ? Lisez les suivants !

03/10/2022

26/09/2022

25/09/2022

Page [tcb_pagination_current_page] sur [tcb_pagination_total_pages]

Vous avez une question ? C'est le moment de la poser !

Laissez-moi un commentaire, je vous répondrai en moins de 24 heures.

  • Merci pour votre article très éclairé.
    Par contre vous ne mentionnez pas les 3 etf que vous proposez sur ce secteur ?
    Merci de votre retour

  • {"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}
    >