L’IA sonne-t-elle le glas de la RPA ?
28 novembre 2024
Le Robotic Process Automation (RPA) évolue face à l’essor de l’IA générative, offrant des solutions hybrides plus flexibles, robustes et adaptées aux nouveaux défis technologiques.
Innovation
En dehors des aspects client et métier, le « cloud computing » modifie les luttes de pouvoir entre les acteurs de l’informatique et des marchés connexes : la convergence entre l’informatique, les médias et les télécommunications va s’accélérer d’autant plus avec le « cloud computing », qui permet la mise en place d’offres innovantes et continues.
Aujourd’hui, le choix du système d’exploitation (OS) est déterminant : on n’aura pas accès aux mêmes logiciels si on choisit Windows, Apple ou Linux. Windows étant le quasi-seul système d’exploitation, Microsoft a une place dominante et en profite pour pousser ses applications comme Microsoft Office ou Internet Explorer. Mais avec le développement d’Internet, certains acteurs ont développé de nouveaux modèles, ce qui leur permet de rivaliser avec Microsoft : Google offre maintenant des services de courrier, d’agenda, d’outils de bureau, accessibles via un navigateur, quel que soit le système : Windows, Apple… mais aussi Android ou tout autre système équipé d’un navigateur web (votre smartphone donc, votre tablette, votre télévision bientôt, etc.). Les nouveaux standards web (HTML 5…) renforceront cette standardisation en ouvrant de nouvelles possibilités en termes de puissance, de contenu hors ligne, de synchronisation, etc. Le PC « Windows » a vécu. Le contenu et les applications seront sur le nuage, accessibles de n’importe où, avec (presque) n’importe quoi.
Le cloud permettra aux terminaux mobiles de réaliser de nouvelles tâches qu’ils ne pouvaient pas faire auparavant. Des dispositifs d’affichage simples seront utilisés à distance offrant des fonctionnalités qui ne seront limitées que par la taille de l’écran, et non plus par le stockage ou la puissance de calcul, ces derniers étant majoritairement déplacés dans le nuage. La synchronisation et l’interopérabilité seront améliorées, permettant le multi équipement. Un PC fixe au bureau, une tablette en voyage, la télévision à la maison, le smartphone dans la rue : mêmes données, mêmes applications. Seul le « hors connexion » restera un enjeu « local ».
Les équipements devront suivre, se standardisant sur le modèle du PC : la puissance ne sera plus primordiale, d’autres critères comme le poids ou l’autonomie domineront. Les téléphones portables exigeront un écran plus grand qui facilitera l’utilisation des applications; un élément différenciant pourra être la capacité d’adapter l’interface des applications au format de l’écran du matériel utilisé. Des start-ups proposent déjà des services permettant de le faire. L’infrastructure du cloud réorganisera l’industrie logicielle : Les DVD et CD-ROM disparaitront en faveur du téléchargement, ou du SaaS. Les applications exigeant toujours plus de capacité (en particulier les jeux vidéo) deviendront disponibles pour tous.
« La maison de demain sera communicante ou ne sera pas »: les industriels avaient promis des matériels interconnectés : tous nos objets numériques « se parleraient », nos frigidaires feraient eux-mêmes les courses, nos télévisions nous permettraient de voir les photos de nos ordinateurs, on pourrait téléphoner en visiophonie avec l’autre bout du monde,… Aujourd’hui force est de constater que nous avons des équipements disparates dialoguant tant bien que mal entre eux par des protocoles plus ou moins standardisés. Celui qui a déjà eu à se battre contre des pilotes (drivers) incompatibles, avec des clés d’identifications absconses et des incompatibilités de marques ou de connecteurs, peut douter de la réalité du système.
Aujourd’hui pour espérer avoir une expérience connectée et intercommunicante à peu près satisfaisante, il faut s’équiper chez une seule marque. Apple par exemple réussit bien à faire en sorte que ses équipements se parlent, mais à quel prix! Et surtout au sein d’un système qui reste relativement fermé, notamment pour garantir l’expérience utilisateur. Apple a historiquement fondé son offre verticale sur la connexion à un ordinateur. L’iPhone a montré que le calcul était bon, et que la nécessité de disposer d’un ordinateur connecté à Internet en haut débit de préférence (téléchargement d’iTunes nécessaire…) n’était pas un frein. Au lancement, iTunes store n’était pas disponible sur l’iPhone. Aujourd’hui encore, un iPhone n’ira pas chercher les podcasts tout seul pendant la nuit via le Wifi de la maison. La nouvelle tablette iPad est encore très dépendante d’un PC, notamment par sa connectique, et même le MacBookAir peine à être autonome…
Aujourd’hui, la majorité des contenus est stockée localement, dupliquée et synchronisée avec plus ou moins de fiabilité et facilité entre l’ensemble des ordinateurs, baladeurs et smartphones. Cependant, la logique va s’inverser. Aujourd’hui, le web est transitoire: on télécharge, on publie, mais le centre reste le PC. Demain, l’équilibre sera déplacé vers le réseau : tout sera en ligne, et on aura un « stock outil » téléchargé et synchronisé sur son équipement mobile (ou fixe). Les offres de musique par abonnement, comme Deezer, Spotify ou Pandora, sont un exemple de cette nouvelle dématérialisation, avec la mise à disposition illimitée de contenus en ligne, la possibilité de mixer son propre contenu, et des fonctionnalités hors connexion. Celles-ci resteront essentielles à la mobilité, mais dans une nouvelle logique : plutôt que d’avoir tout localement et de synchroniser, la référence sera en ligne, et on n’aura que le strict nécessaire en local. Certaines entreprises ont adopté depuis longtemps cette logique avec le stockage en réseau et un « stock outil » sur l’ordinateur portable, plus un accès en « VPN » (Réseau privé virtuel) à distance. Cependant, cette pratique reste limitée aux grandes entreprises et s’appuie sur des solutions peu souples. La révolution passera par des offres grand public, qui voient progressivement le jour.
L’accès se fait via n’importe quel système (Mac, Windows, Linux,…) en se servant d’un navigateur web (Internet Explorer, Firefox, Safari, Chrome…) et d’un module téléchargeable (« client léger »), avec des possibilités hors connexion très poussées. Bien que plus complexe, Microsoft propose une offre similaire pour les entreprises, qui semble déjà murir vers une offre grand public réellement intéressante.
Apple propose un compte unique permettant d’accéder à du contenu à partir de plusieurs équipements : une video payée sera disponible sur un iPhone ou un PC, à partir du moment où il aura accès à Internet. L’offre complémentaire, MobileMe, sur abonnement, permet la délocalisation des agendas, des contacts, des comptes emails et documents multimedia.
HTML 5, le nouveau standard web, devrait ouvrir encore plus de possibilités dans ce domaine de la synchronisation pluti-plateforme.
Dans cette nouvelle offre, un des principaux défis est celui de la gestion et de l’agrégation des contenus : ils seront dispersés entre de multiples plateformes web (Yahoo, Google, Microsoft, Adobe, Facebook,…), avec autant d’identifiants et de mots de passe. Tout étant connecté, l’identification et la sécurisation des données deviennent clé. Ensuite les aléas du réseau et des connections rendent indispensable une gestion fine des contenus entre le réseau et les équipements (« constant peering, constant sharing »). C’est un des enjeux clés pour les opérateurs de réseaux. S’ils semblent avoir perdu la bataille du contenu et des services web, ils peuvent encore capitaliser sur leur intimité clients pour prendre la main sur ces problématiques et proposer un service simple et attractif.
Morand Studer
Partager
Sur le même sujet