Entreprises

Guide à l'usage des dirigeants pour investir dans l'intelligence artificielle : comprendre la proposition de valeur en 2025

L'AI automatizzerà 300M posti lavoro equivalenti globalmente, 92M eliminati entro 2030 (WEF), 60% lavori paesi alto reddito influenzati—ma saldo netto positivo: 170M nuovi ruoli emergeranno (+78M totale). Lavori più suscettibili: amministrativi 46% attività automatizzabili, back-office, call center, contabilità. Risultati settoriali già misurabili: finanza -40% costi operativi +40% efficienza gestione rischio, sanità -30-50% tempi diagnosi con scoperta farmaci da 5 anni a <1 anno (-60% costi), software -56% tempi sviluppo con +30-60% accelerazione time-to-market, manifattura -80% downtime con +8% profitti annui, marketing +30% conversioni con -30% costi acquisizione clienti. Polarizzazione salariale estrema: avvocati con competenze AI guadagnano +49% vs colleghi tradizionali. Italia caso demografico: gap 5.6M posti lavoro entro 2033, automazione 3.8M diventa necessità vs rischio. Competenze 2025: pensiero analitico, creatività, intelligenza sociale—94% responsabili marketing riporta impatto positivo vendite, 91% aziende con AI assumerà nel 2025. Questione centrale: non se AI sostituirà umani ma quali umani si adatteranno vs resisteranno cambiamento.

Alors que les tendances en matière d'investissement dans l'IA évoluent à l'horizon 2025, les dirigeants sont de plus en plus contraints de prendre des décisions stratégiques sur la mise en œuvre de l'IA. Avec l'adoption rapide des outils d'IA par les entreprises - 22 % les mettent en œuvre de manière intensive et 33 % les utilisent de manière limitée - il est devenu essentiel de comprendre comment évaluer et mettre en œuvre les solutions d' IA pour conserver un avantage concurrentiel. Dans le livre"The Executive Guide to Artificial Intelligence" d'Andrew Burgess, l'auteur fournit un guide complet pour les dirigeants d'entreprise qui souhaitent comprendre et mettre en œuvre des solutions d'IA dans leur organisation.

Cet ouvrage a été publié en 2017 par Springer International Publishing et offre un aperçu pratique de la manière dont les entreprises peuvent tirer parti de l'intelligence artificielle. Qu'est-ce qui a changé aujourd'hui ?

Tendances actuelles de l'investissement dans l'IA 2025

Le paysage de l'IA connaît une croissance sans précédent, les organisations réalisant des investissements plus importants pour rester compétitives.

L'essentiel :

Burgess a souligné l'importance de commencer par définir des objectifs clairs alignés sur la stratégie de l'entreprise, un principe qui reste valable aujourd'hui. Dans son livre, il identifie huit capacités essentielles de l'IA :

  1. Reconnaissance d'images
  2. Reconnaissance vocale
  3. Recherche et extraction d'informations
  4. Regroupement
  5. Compréhension du langage naturel
  6. Optimisation
  7. Prédiction
  8. Comprendre (aujourd'hui)

Évolution de 2018 à 2025 :

Depuis la rédaction du livre, l'IA est passée du statut de technologie émergente à celui de technologie grand public. La capacité de "compréhension" que Burgess considérait comme futuriste a connu des avancées significatives avec l'avènement des grands modèles de langage (LLM) et des technologies d'IA générative, qui n'avaient pas encore vu le jour en 2018.

cadre stratégique pour les décisions d'investissement dans l'IA

Les quatre questions essentielles

Lors de l'évaluation des investissements dans l'IA, il est essentiel de se concentrer sur ces questions cruciales :

  1. Définir le problème de l'entreprise
  2. Indicateurs de réussite
  3. Exigences de mise en œuvre
  4. Évaluation des risques

Note : Ce cadre en quatre questions est issu des connaissances actuelles et n'est pas explicitement présenté dans le livre de Burgess.

Élaborer une stratégie efficace en matière d'IA

Le cadre d'adoption :

Burgess propose un cadre détaillé pour la création d'une stratégie en matière d'IA qui comprend

  1. Alignement sur la stratégie de l'entreprise - Comprendre comment l'IA peut soutenir les objectifs existants de l'entreprise
  2. Comprendre les ambitions de l'AI - Définir si nécessaire :
    • Améliorer les processus existants
    • Transformer les fonctions de l'entreprise
    • Créer de nouveaux services/produits
  3. Évaluation de la maturité de l'IA - Déterminer le niveau de maturité actuel de l'organisation sur une échelle de 0 à 5 :
    • Traitement manuel (niveau 0)
    • Automatisation informatique traditionnelle (niveau 1)
    • Automatisation isolée de base (niveau 2)
    • Mise en œuvre tactique d'outils d'automatisation (niveau 3)
    • Mise en œuvre tactique de diverses technologies d'automatisation (niveau 4)
    • Automatisation stratégique de bout en bout (niveau 5)
  4. Création d'une carte thermique de l'AI - Identification des domaines où les opportunités sont les plus grandes
  5. Élaborer un dossier commercial - Évaluer les avantages "tangibles" et "intangibles
  6. Gestion du changement - Planifier l'adaptation de l'organisation
  7. Développer une feuille de route IA - Créer un plan à moyen et long terme

Évolution de 2018 à 2025 :

Le cadre de Burgess reste étonnamment pertinent aujourd'hui, mais il doit être complété par des considérations sur :

  • L'éthique et les réglementations en matière d'IA (comme la loi européenne sur l'IA)
  • Durabilité environnementale de l'IA
  • Stratégies d'IA responsables
  • Intégration des technologies émergentes telles que l'informatique quantique

Mesurer le retour sur investissement de l'IA

Les facteurs déterminants du retour sur investissement :

Burgess identifie différents types d'avantages de l'IA, classés en "hard" et "soft" :

Des avantages indéniables :

  • Réduction des coûts
  • Éviter les coûts
  • Satisfaction des clients
  • Conformité
  • Atténuation des risques
  • Atténuation des pertes
  • Atténuation des pertes de revenus
  • Génération de revenus

Avantages doux :

  • Changement culturel
  • Avantage concurrentiel
  • Effet de halo
  • Permettre d'autres avantages
  • Permettre la transformation numérique

__wff_reserved_inherit
La mesure du retour sur investissement de l'IA est devenue plus sophistiquée, avec des cadres spécifiques pour évaluer l'impact de l'IA générative, qui n'existaient pas lorsque Burgess a écrit son livre.

Approches techniques de la mise en œuvre de l'IA

Types de solutions :

Burgess a présenté trois approches principales pour la mise en œuvre de l'IA :

  1. Logiciels d'IA prêts à l'emploi - Solutions prêtes à l'emploi
  2. Plateformes d'IA - fournies par de grandes entreprises technologiques
  3. Développement d'IA sur mesure - Solutions personnalisées

Pour les premières étapes, il a suggéré d'envisager :

  • Preuve de concept (PoC)
  • Prototypes
  • Produit minimum viable (MVP)
  • Test de l'hypothèse la plus risquée (TAP)
  • Pilote

Ce qui a changé :

Depuis 2018, nous avons assisté à :

  • démocratisation des outils d'IA avec des solutions sans code/à faible code
  • Amélioration spectaculaire des plateformes d'IA en nuage
  • Croissance de l'IA générative et des modèles tels que GPT, DALL-E, etc.
  • Montée en puissance des solutions AutoML qui automatisent certaines parties du processus de science des données

Prise en compte des risques et des défis

Les risques de l'intelligence artificielle :

Burgess a consacré un chapitre entier aux risques de l'IA, en soulignant :

  1. Qualité des données
  2. Manque de transparence - la nature "boîte noire" des algorithmes
  3. Préjugés non intentionnels
  4. Naïveté de l'IA - Limites de la compréhension du contexte
  5. Dépendance excessive à l'égard de l'IA
  6. Mauvais choix de technologie
  7. Actes de malveillance

Évolution de 2018 à 2025 :

Depuis l'écriture du livre :

  • Les préoccupations relatives à la partialité des algorithmes sont devenues une question cruciale (en attente)
  • La sécurité de l'IA est devenue essentielle face à l'augmentation des menaces
  • La réglementation de l'IA est devenue un facteur clé
  • Les risques liés aux deepfakes et à la désinformation générative par l'IA sont devenus importants
  • Les préoccupations en matière de protection de la vie privée se sont accrues avec l'utilisation plus généralisée de l'IA

Créer une organisation efficace de l'AI

Extrait du livre de Burgess (2018) :

Burgess a proposé :

  • Construire un écosystème de l'IA avec les fournisseurs et les partenaires
  • Mise en place d'un centre d'excellence (CoE) avec des équipes dédiées
  • Envisager des rôles tels que celui de responsable des données (CDO) ou de responsable de l'automatisation (CAO).

Évolution de 2018 à 2025 :

Depuis lors :

  • Le rôle de responsable en chef de l'IA (CAIO) est devenu courant
  • L'IA est désormais souvent intégrée dans l'ensemble de l'organisation au lieu d'être isolée dans un centre d'expertise.
  • La démocratisation de l'IA a conduit à des modèles opérationnels plus distribués
  • L'importance de la maîtrise de l'IA pour tous les employés est apparue

Conclusion

Extrait du livre de Burgess (2018) :

Burgess a conclu en soulignant l'importance de :

  • Ne croyez pas au battage médiatique, mais concentrez-vous sur les véritables problèmes de l'entreprise
  • Commencer le parcours de l'AI dès que possible
  • Préparer l'avenir de l'entreprise en comprenant l'IA
  • Adopter une approche équilibrée entre optimisme et réalisme

Évolution de 2018 à 2025 :

L'appel de Burgess à "ne pas croire au battage médiatique" reste incroyablement pertinent en 2025, en particulier avec le battage médiatique excessif autour de l'IA générative. Cependant, la vitesse d'adoption de l'IA est devenue encore plus critique, et les entreprises qui n'ont pas encore entamé leur parcours en matière d'IA se trouvent maintenant dans une position très désavantageuse par rapport à celles qui ont suivi le conseil de Burgess de commencer tôt (en 2018 !).

Le paysage de l'IA en 2025 est plus complexe, plus mature et plus intégré à la stratégie de l'entreprise que ce que l'on aurait pu prédire en 2018, mais les principes fondamentaux d'alignement stratégique, de création de valeur et de gestion des risques énoncés par Burgess restent étonnamment valables.

Ressources pour la croissance des entreprises

9 novembre 2025

Pourquoi les mathématiques sont difficiles (même si vous êtes une IA)

Les modèles linguistiques ne savent pas comment mémoriser des résultats par multiplication comme nous mémorisons pi, mais cela ne fait pas d'eux des mathématiciens. Le problème est structurel : ils apprennent par similarité statistique, et non par compréhension algorithmique. Même les nouveaux "modèles de raisonnement" tels que o1 échouent sur des tâches triviales : il compte correctement le "r" dans "fraise" après quelques secondes de traitement, mais se trompe lorsqu'il doit écrire un paragraphe dans lequel la deuxième lettre de chaque phrase constitue un mot. La version premium à 200 $/mois prend quatre minutes pour résoudre ce qu'un enfant fait instantanément. DeepSeek et Mistral en 2025 se trompent encore de lettres. La solution émergente ? Une approche hybride : les modèles les plus intelligents ont compris quand appeler une vraie calculatrice au lieu de faire le calcul eux-mêmes. Changement de paradigme : l'IA ne doit pas savoir tout faire, mais orchestrer les bons outils. Paradoxe final : GPT-4 peut vous expliquer brillamment la théorie des limites, mais se trompe dans des multiplications qu'une calculatrice de poche résout toujours correctement. Pour l'enseignement des mathématiques, ils sont excellents - ils expliquent avec une patience infinie, adaptent les exemples, décomposent les raisonnements complexes. Pour des calculs précis ? Faites confiance à la calculatrice, pas à l'intelligence artificielle.
9 novembre 2025

Réglementation de l'IA pour les applications grand public : comment se préparer aux nouvelles réglementations de 2025

2025 marque la fin de l'ère du "Far West" de l'IA : AI Act EU opérationnel à partir d'août 2024 avec des obligations de maîtrise de l'IA à partir du 2 février 2025, gouvernance et GPAI à partir du 2 août. La Californie fait figure de pionnière avec le SB 243 (né après le suicide de Sewell Setzer, une adolescente de 14 ans ayant développé une relation émotionnelle avec un chatbot) qui impose l'interdiction des systèmes de récompense compulsifs, la détection des idées de suicide, un rappel toutes les 3 heures "Je ne suis pas humain", des audits publics indépendants, des pénalités de 1 000 $/violation. Le SB 420 exige des évaluations d'impact pour les "décisions automatisées à haut risque" avec des droits d'appel de révision humaine. Application réelle : Noom a été cité en 2022 pour des robots se faisant passer pour des entraîneurs humains ; règlement de 56 millions de dollars. Tendance nationale : l'Alabama, Hawaï, l'Illinois, le Maine et le Massachusetts considèrent l'absence de notification des robots de conversation comme une violation de l'UDAP. Approche à trois niveaux des systèmes à risque critique (soins de santé/transports/énergie) : certification préalable au déploiement, divulgation transparente au consommateur, enregistrement à des fins générales + tests de sécurité. Patchwork réglementaire sans préemption fédérale : les entreprises présentes dans plusieurs États doivent s'adapter à des exigences variables. UE à partir d'août 2026 : informer les utilisateurs de l'interaction de l'IA à moins qu'elle ne soit évidente, le contenu généré par l'IA doit être étiqueté comme étant lisible par une machine.
9 novembre 2025

Réglementer ce qui n'est pas créé : l'Europe risque-t-elle d'être dépassée sur le plan technologique ?

L'Europe n'attire qu'un dixième des investissements mondiaux dans le domaine de l'intelligence artificielle, mais prétend dicter les règles mondiales. C'est ce qu'on appelle "l'effet Bruxelles" : imposer des règles à l'échelle planétaire grâce à son pouvoir de marché sans stimuler l'innovation. La loi sur l'IA entre en vigueur selon un calendrier échelonné jusqu'en 2027, mais les multinationales de la technologie y répondent par des stratégies d'évasion créatives : elles invoquent le secret commercial pour éviter de révéler les données de formation, produisent des résumés techniquement conformes mais incompréhensibles, utilisent l'auto-évaluation pour déclasser les systèmes de "risque élevé" à "risque minimal", font du "forum shopping" en choisissant des États membres où les contrôles sont moins stricts. Le paradoxe du droit d'auteur extraterritorial : l'UE exige qu'OpenAI se conforme aux lois européennes même pour la formation en dehors de l'Europe - un principe jamais vu auparavant dans le droit international. Le "modèle dual" émerge : versions européennes limitées contre versions mondiales avancées des mêmes produits d'IA. Risque réel : l'Europe devient une "forteresse numérique" isolée de l'innovation mondiale, les citoyens européens ayant accès à des technologies inférieures. La Cour de justice, dans l'affaire de l'évaluation du crédit, a déjà rejeté la défense fondée sur le "secret commercial", mais l'incertitude interprétative reste énorme : que signifie exactement un "résumé suffisamment détaillé" ? Personne ne le sait. Dernière question non résolue : l'UE crée-t-elle une troisième voie éthique entre le capitalisme américain et le contrôle de l'État chinois, ou exporte-t-elle simplement la bureaucratie dans un domaine où elle n'est pas en concurrence ? Pour l'instant : leader mondial dans la réglementation de l'IA, marginal dans son développement. Vaste programme.