Le pape exhorte à légiférer sur l'intelligence artificielle
Le message pour la Journée mondiale des communications sociales 2024 du pape François porte sur l'intelligence artificielle. A cette occasion, cath.ch vous propose un dossier consacré à la foi et à l'IA. Une thématique qui intéresse tout autant qu'elle préoccupe le pontife.
Le pape exhorte à légiférer sur l'intelligence artificielle
Le doute, pour “humaniser” les intelligences artificielles
IA, gare au spectre d'un nouvel esclavage, lance François
«L’essor de l’IA brouille la distinction entre humain et machine»
“L’IA peut reproduire une infime partie de l’intelligence humaine”
Ne pas apparenter la création des machines à «l’acte créateur divin»
Stève Bobillier: «L’IA ne peut pas prier, elle n’a pas de conscience»
L’intelligence artificielle au service du Salut
Intelligence artificielle: les forçats du monde numérique
"L’IA est un outil fascinant et redoutable»
Face à l'intelligence artificielle, le Vatican met en garde contre "l’idolâtrie"
À Delémont, le philosophe Bernard Reber démystifie l’IA
Le pape exhorte à légiférer sur l'intelligence artificielle
Le message pour la Journée mondiale des communications sociales 2024 du pape François porte sur l'intelligence artificielle. A cette occasion, cath.ch vous propose un dossier consacré à la foi et à l'IA. Une thématique qui intéresse tout autant qu'elle préoccupe le pontife.
Le pape exhorte à légiférer sur l'intelligence artificielle
Le message pour la Journée mondiale des communications sociales 2024 du pape François porte sur l'intelligence artificielle. A cette occasion, cath.ch vous propose un dossier consacré à la foi et à l'IA. Une thématique qui intéresse tout autant qu'elle préoccupe le pontife.
Le doute, pour “humaniser” les intelligences artificielles
Le théologien franciscain Paolo Benanti est membre de l’organe consultatif des Nations Unies pour l’intelligence artificielle (IA). Il estime urgent d'élever le niveau de l'enseignement éthique des logiciels. Il préconise, afin de respecter au mieux la nature humaine, d’apprendre à l’IA à intégrer l...
IA, gare au spectre d'un nouvel esclavage, lance François
«C’est à l’homme de décider s’il veut devenir la nourriture des algorithmes ou nourrir son cœur de liberté», a déclaré le pape François dans son message pour la Journée mondiale des communications sociales du 24 janvier 2024. Il a mis en garde contre la possibilité que quelques-uns finissent par con...
«L’essor de l’IA brouille la distinction entre humain et machine»
Tomberons-nous amoureux de nos robots personnels? Les intelligences artificielles (IA) deviendront-elles nos confidentes intimes? Johan Rochel, éthicien de l’innovation à l’EPFL, scrute les enjeux vertigineux posés par l’humanisation des machines.
“L’IA peut reproduire une infime partie de l’intelligence humaine”
Un diagnostic de votre médecin, l’octroi d’un prêt par votre banquier, votre engagement professionnel, l’accès à une prestation sociale seront peut-être bientôt décidés par une Intelligence artificielle. C’est dire si les enjeux éthiques de la 4e révolution industrielle sont grands. Le théologien Ez...
Ne pas apparenter la création des machines à «l’acte créateur divin»
Le pape François a exhorté, le 12 février 2024, à combattre «l’hégémonie technocrate» et «la dérive vers la pensée unique». II recevait les membres de l’Académie pour la vie à l’occasion de l’inauguration de leur assemblée générale, au Vatican.
Stève Bobillier: «L’IA ne peut pas prier, elle n’a pas de conscience»
Dans le cadre de son message pour la Journée mondiale des communications sociales 2024, le pape a ouvert une fenêtre à l’intelligence artificielle. Pour le professeur de philosophie Stève Bobillier, l’IA n’a pas de conscience de soi: elle ne peut donc pas exercer sa liberté, ni définir ce qui est ju...
L’intelligence artificielle au service du Salut
L’intelligence artificielle (IA) fait-elle partie du plan de Dieu? Théologien et ingénieur en aéronautique, Jean-Marc Moschetta aime répondre par l’affirmative pour amener son interlocuteur à déplacer son regard et à réfléchir à une utilisation de l’IA au «service du salut».
Intelligence artificielle: les forçats du monde numérique
Derrière l’intelligence artificielle (IA) se cachent en fait des millions de travailleurs précaires partout dans le monde. Qui passent leurs journées ou leurs nuits à annoter des milliards de données. Éclairage sur ces forçats du numérique.
"L’IA est un outil fascinant et redoutable»
À Bari, ce 14 juin 2024, dans un long discours remis aux chefs d’État et de gouvernement venus participer au sommet du G7, le pape François alerte sur les dangers d’une intelligence artificielle (IA) non ordonnée vers le «bien commun». Pour le pape, il est urgent que les dirigeants du monde passent...
Face à l'intelligence artificielle, le Vatican met en garde contre "l’idolâtrie"
"L’Église encourage les progrès dans la science, dans la technologie, dans les arts et dans toute entreprise humaine" mais souligne l’importance d’un "usage responsable de la rationalité et de la capacité technique", indique la note Antiqua et Nova sur le rapport entre intelligence artificielle (IA)...
À Delémont, le philosophe Bernard Reber démystifie l’IA
Le philosophe et chercheur jurassien Bernard Reber a analysé les enjeux de l’intelligence artificielle (IA), le 12 mars 2025, à Delémont.
Le pape exhorte à légiférer sur l'intelligence artificielle
Dans son message pour la Journée mondiale de la paix, qui sera célébrée le 1er janvier 2024, le pape François exhorte la communauté internationale à «adopter un traité international contraignant» pour réglementer l’intelligence artificielle (IA). Au fil de son texte publié le 14 décembre 2023, le pape s’inquiète longuement des dangereuses répercussions de l’essor technologique sur l’humanité, notamment en termes de discrimination, d’inégalités, et de conditionnements.
Dans ces vœux de Nouvel An adressés aux catholiques, mais aussi aux dirigeants du monde, le 266e pape se réjouit du «progrès des sciences» reconnaissant «les extraordinaires avancées» qui ont permis de pallier «d’innombrables maux qui affligeaient la vie humaine». Pas de «rejet technophobe» chez le pontife argentin, a souligné l’expert français Mathieu Guillermin, maître de conférences de l’Université Catholique de Lyon, en présentant le message lors d’une conférence de presse au Vatican.
Mais le pontife de bientôt 87 ans s’inquiète des conséquences de «l’immense expansion» des intelligences artificielles et de leurs algorithmes. Pour le Saint-Siège, cette réalité représente «peut-être le pari le plus risqué de notre avenir», a estimé le cardinal Michael Czerny, préfet du dicastère pour le Service du développement humain intégral.
Le pape redoute particulièrement l’absence de médiation humaine dans les systèmes d’IA utilisés pour déterminer «la fiabilité d’un demandeur de prêt bancaire, l’aptitude d’un individu à un emploi, la possibilité de récidive d’une personne condamnée ou bien le droit à recevoir l’asile politique ou l’aide sociale». Il craint «des formes de préjugés et de discriminations», et des «erreurs systémiques» qui provoqueraient «de véritables formes d’inégalités sociales».
Ne pas laisser l’IA aux développeurs
Dans ce texte de sept pages publié en huit langues, le pontife exhorte particulièrement la communauté internationale à travailler «afin d’adopter un traité international contraignant qui réglemente le développement et l’utilisation de l’intelligence artificielle sous ses multiples formes». Il souhaite aussi la création d’organismes «pour examiner les questions éthiques émergentes» et protéger les droits des utilisateurs.
L’encadrement de l’IA est un thème sur lequel se penche en ce moment le Comité sur l’intelligence artificielle (CAI) du Conseil de l’Europe. Les Nations unies viennent quant à elle d’annoncer la mise en place d’un comité de haut niveau consacré à l’IA.
Pour le pape, il s’agit de «ne pas laisser [l’IA] aux propriétaires et aux développeurs», a expliqué le cardinal Czerny. Car, écrit François, «les innovations technologiques ne sont ni désincarnées de la réalité ni neutres», et l’on ne peut pas «supposer a priori» qu’elles seront «bénéfiques».
Les menaces dans tous les domaines
Alors que les nouveaux outils modifient déjà «d’innombrables […] aspects de la vie quotidienne», les défis sont «techniques, mais aussi anthropologiques, éducatifs, sociaux et politiques», martèle le pontife argentin. Il met en garde contre l’utilisation des «traces numériques» laissées par tout usager d’internet pour «contrôler les habitudes mentales et relationnelles des personnes, souvent à leur insu, à des fins commerciales ou politiques, en limitant l’exercice conscient de leur liberté de choix».
Face au développement technologique, il craint les «campagnes de désinformation», «l’ingérence dans les processus électoraux, la mise en place d’une société qui surveille et contrôle les personnes, l’exclusion numérique et l’exacerbation d’un individualisme de plus en plus déconnecté de la collectivité».
Évoquant par ailleurs les «machines qui apprennent par elles-mêmes» – machine learning, comme le fameux ChatGPT – le pape prévient que «la capacité de certains appareils à produire des textes syntaxiquement et sémantiquement cohérents […] n’est pas une garantie de fiabilité». «Tout ne peut pas être prédit, tout ne peut pas être calculé», insiste-t-il aussi.
Garantir la supervision des armes autonomes
«Ce sont les intelligences artificielles à des fins de guerre qui nous font le plus peur», a confié le cardinal Czerny devant la presse. «Le monde n’a pas vraiment besoin que les nouvelles technologies contribuent au développement injuste du marché et du commerce des armes», peut-on lire ainsi dans le message du pontife.
Le pape François demande «de garantir une supervision humaine adéquate, significative et cohérente des systèmes d’armes» létales autonomes, qui «ne pourront jamais être des sujets moralement responsables» et qui risquent même de faciliter «des attaques terroristes».
Le sens de la limite et l’éducation critique
Dans le domaine de l’IA, le pape François plaide pour «une formation appropriée à la responsabilité». Il enjoint particulièrement à éduquer les jeunes, «imprégnés par la technologie», à une «pensée critique».
Le successeur de Pierre regrette que la mentalité actuelle néglige «le sens de la limite». Et d’avertir: «L’être humain, […] pensant dépasser toutes les limites grâce à la technique, risque, dans l’obsession de vouloir tout contrôler, de perdre le contrôle de lui-même; dans la recherche d’une liberté absolue, de tomber dans la spirale d’une dictature technologique».
Pour ne pas laisser les algorithmes «déterminer la manière dont nous entendons les droits humains», ni «mettre de côté les valeurs essentielles de compassion, de miséricorde et de pardon», il appelle «un développement éthique des algorithmes – l’algor-éthique». Les valeurs, pour le pape, doivent orienter la recherche et toutes «les phases d’expérimentation, de conception, de production, de distribution et de commercialisation». (cath.ch/imedia/ak/rz)
Articles les plus lus
20/04/2026 - 16:05
Le nombre de paroisses réformées dans le canton de Vaud sera divisé par trois
Le nombre de paroisses de l’Église évangélique réformée vaudoise (EERV) doit passer de 86 à environ 30 d’ici 2029.
22/04/2026 - 19:00
"En Suisse, il y a une forte augmentation des demandes d'exorcisme"
En Suisse romande comme en Europe et aux États-Unis, le nombre de personnes se disant possédées ne cesse de croître, tout comme les demandes d’exorcisme. La possession serait-elle un simple trouble psychique? Une croyance teintée d’obscurantisme? La psychanalyste Marie Renaud-Trémelot répond.
Le doute, pour “humaniser” les intelligences artificielles
Le théologien franciscain Paolo Benanti est membre de l’organe consultatif des Nations Unies pour l’intelligence artificielle (IA). Il estime urgent d'élever le niveau de l'enseignement éthique des logiciels. Il préconise, afin de respecter au mieux la nature humaine, d’apprendre à l’IA à intégrer la notion de 'doute’.
Prions «pour que le développement rapide de formes d'intelligence artificielle n'augmente pas les trop nombreuses inégalités et injustices déjà présentes dans le monde, mais contribue à mettre fin aux guerres et aux conflits, et à soulager les nombreuses formes de souffrance qui affligent la famille humaine». Tel a été le souhait du pape dans son message à l’occasion de la Journée mondiale de la paix, publié le 1er janvier 2024.
Le pontife, comme le reste de l’humanité, a certainement été profondément interrogé par la récente arrivée de robots conversationnels aux performances impressionnantes, dont le plus médiatisé a été ChatGPT. Ces avancées ont provoqué un certain vertige dans l’opinion publique, entre craintes de pertes d’emploi massives et asservissement de l’humain par la machine.
Des machines “miséricordieuses”?
Beaucoup de voix ont adopté une approche modérée, refusant la diabolisation de ces technologies, tout en appelant à une réflexion globale et à la pose de limites. C’est le cas du théologien Paolo Benanti, éthicien et spécialiste de l’IA. Membre de l’organe consultatif des Nations Unies pour ces questions, il s’est exprimé dans le journal italien La Stampa du 3 janvier 2024 sur les orientations souhaitables dans ce domaine.
"Les algorithmes diffèrent des humains sur un point crucial: ils ne savent pas ce qu'ils ne savent pas"
“La meilleure façon de traiter avec l’IA est de donner la priorité à l'être humain”, assure ainsi le franciscain italien. “Entre l'objectif de la machine et l'objectif de l'être humain, le projet de l'être humain doit passer en premier. L’IA doit donner à l'humain la possibilité de définir ses priorités et donc son autodétermination sociale."
Pour Paolo Benanti, trois valeurs primordiales devraient ainsi être intégrées par les IA. Dans le domaine social, “la dimension de l'équité et de l'égalité est crucial”, assure-t-il. “Sinon, l’IA alimentera la dangereuse division en classes sociales par le biais des préjugés." L’éthicien préconise également "la miséricorde, c'est-à-dire la capacité à ne pas se laisser déterminer uniquement par les événements négatifs qu'une personne a subis et inscrits dans son histoire".
Manque d’introspection
Mais pour le franciscain, la chose la plus importante pour une IA serait d’intégrer la notion de doute. “Si nous demandons quelque chose à ChatGPT, il nous donne toujours une réponse. Et parfois, ce sont des élucubrations”, note-t-il. Le manque d’introspection est en effet un aspect de l’IA largement reconnu par les experts du secteur. “Si les algorithmes (...) peuvent sembler étonnamment intelligents, ils diffèrent actuellement des humains sur un point crucial: ils ne savent pas ce qu'ils ne savent pas, une capacité que les psychologues appellent la métacognition”, note Steve Fleming.
"Une fois que les machines font partie de notre vie quotidienne, nous avons tendance à nous montrer complaisants à l'égard des risques encourus"
Dans un article publié en 2021 dans le Financial Times, le professeur de neurosciences cognitives au University College de Londres explique que “la métacognition est la capacité de réfléchir à sa propre pensée - de reconnaître quand on peut se tromper, par exemple, ou quand il serait sage de demander un deuxième avis”. Les chercheurs en IA savent depuis un certain temps que les technologies d'apprentissage automatique ont tendance à être trop confiantes, avertit le professeur britannique. “Au lieu de s'avouer vaincu, il [le logiciel] donne souvent des réponses erronées avec une grande confiance.”
Donner des limites à l’IA
“À l'heure actuelle, la plus grande 'vertu’ à laquelle nous, hommes et femmes, pouvons aspirer n'est pas la capacité de répondre, mais de se demander si la réponse est valable ou non”, affirme ainsi Paolo Benanti. “Si nous pouvions donner à la machine la prédisposition à douter de ses réponses, nous ferions quelque chose de beaucoup plus respectueux de la nature humaine."
Le professeur d’éthique exhorte, quoiqu’il en soit, à clairement faire la différence entre notre esprit humain et un “cerveau artificiel”. "Il faut partir du principe que l'IA ne peut pas être éduquée moralement, parce qu'elle n'est pas une subjectivité personnelle”, rappelle-t-il dans La Stampa.
“Les valeurs sur lesquelles l’IA se base sont numériques. Mais elles peuvent être ajustées dans une certaine mesure, contrôlées par des algorithmes qui peuvent être utilisés comme une sorte de garde-fou éthique. Par conséquent, une éducation morale nouvelle et renouvelée des utilisateurs, c'est-à-dire des citoyens, devient cruciale, qui ne se contenteront pas d'interagir avec l'intelligence artificielle, mais qui lui donneront ses limites ou ses champs d'application.”
"Le problème ne concernera pas la relation entre Dieu et l'IA, mais notre attitude, en tant qu’humains, vis-à-vis de l'IA"
Steve Fleming incite lui aussi à nous demander “de réfléchir à ce que nous sommes en train de créer lorsque nous élaborons ces algorithmes. L'histoire de l'automatisation suggère qu'une fois que les machines font partie du tissu de notre vie quotidienne, les humains ont tendance à se montrer complaisants à l'égard des risques encourus”.
Il cite le philosophe américain Daniel Dennett, selon lequel "le véritable danger n'est pas que des machines plus intelligentes que nous usurpent notre rôle de capitaine de notre destin, mais que nous surestimions la compréhension de nos derniers outils de pensée, leur cédant prématurément une autorité qui va bien au-delà de leurs compétences".
L’illusion du 'cloud’ divin
Le spécialiste du cerveau cite également le grand rabbin britannique Jonathan Sacks (1948-2020): "Si nous cherchons à préserver notre humanité, la réponse n'est pas d'élever le niveau d'intelligence (...) C'est la conscience d’eux-mêmes qui rend les êtres humains différents." “La capacité à douter, à se remettre en question, à rechercher ce que nous ne savons pas encore est le moteur de la créativité scientifique qui a donné naissance à l'IA”, remarque Steve Fleming.
Ainsi, pour Paolo Benanti, "le problème ne concernera pas la relation entre Dieu et l'IA, mais notre attitude, en tant qu’humains, vis-à-vis de l'IA. Parce que nous avons tendance à nous créer des idoles (...) En pratique, le risque est que nous nous tournions vers le 'cloud’, où réside l'IA, plutôt que vers le ciel, et que nous considérions l'IA comme un ‘nouveau dieu’”. (cath.ch/stampa/financialtimes/arch/rz)
Articles les plus lus
20/04/2026 - 16:05
Le nombre de paroisses réformées dans le canton de Vaud sera divisé par trois
Le nombre de paroisses de l’Église évangélique réformée vaudoise (EERV) doit passer de 86 à environ 30 d’ici 2029.
22/04/2026 - 19:00
"En Suisse, il y a une forte augmentation des demandes d'exorcisme"
En Suisse romande comme en Europe et aux États-Unis, le nombre de personnes se disant possédées ne cesse de croître, tout comme les demandes d’exorcisme. La possession serait-elle un simple trouble psychique? Une croyance teintée d’obscurantisme? La psychanalyste Marie Renaud-Trémelot répond.
IA, gare au spectre d'un nouvel esclavage, lance François
«C’est à l’homme de décider s’il veut devenir la nourriture des algorithmes ou nourrir son cœur de liberté», déclare le pape François dans son message pour la Journée mondiale des communications sociales 2024. Il a mis en garde contre la possibilité que quelques-uns finissent par conditionner la pensée de tous.
Dans sa réflexion sur l’intelligence artificielle et ses effets sur la communication et la société, publié le 24 janvier 2024, le pape François met en garde contre le «spectre d’un nouvel esclavage». Le pontife s’était déjà attaqué à la problématique de l’intelligence artificielle dans son message pour la Journée mondiale de la paix, du 1er janvier 2024. Il avait exhorté les gouvernements à réguler son utilisation au niveau international par le biais d’un traité.
Tout en renouvelant cet appel, il a affirmé cette fois, dans un nouveau texte de quatre pages, publié en la solennité de saint François de Sales, patron des journalistes et des communicants, que «la réglementation ne suffit pas».
Dans cette méditation philosophique, le pape note que la «diffusion accélérée» d’inventions rattachées à l’intelligence artificielle est en train de modifier radicalement l’information et la communication et, à travers elles, «certains des fondements de la cohabitation civile». Il insiste sur le fait que ce changement «touche tout le monde», en ce qu’il concerne l’avenir de l’humanité et sa nature même.
Dépasser la paralysie pour infléchir le phénomène
Le pontife met cependant en garde contre les «effets paralysants» qu’une lecture catastrophiste du phénomène pourrait entraîner. Il invite donc à ne pas se «raidir contre le nouveau», mais plutôt à «orienter dans le bon sens la mutation culturelle en cours».
Notre époque, estime le pape François, est «riche en technique et pauvre en humanité», et pourtant la réflexion sur l’intelligence artificielle doit partir «du cœur de l’homme». Contrairement aux machines, cette «sagesse du cœur», inspirée par «l’Esprit-Saint», permet de «tisser ensemble le tout et les parties, les décisions et les conséquences, les hauteurs et les fragilités, le passé et l’avenir, le 'je’ et le ‘nous’», insiste-t-il.
Le pontife reconnaît la supériorité des technologies d’apprentissage automatique sur le plan de la mémorisation des données et leur traitement, «mais c’est à l’homme et à lui seul qu’il revient d’en décrypter le sens», assure-t-il. Et de prévenir: «Il ne s’agit pas d’exiger que les machines semblent humaines.»
«Les algorithmes ne sont pas neutres»
Le pape met en garde contre «l’hypnose» de l’homme, critiquant «son délire de toute-puissance» quand il essaye «de surmonter sa vulnérabilité par tous les moyens». Cette «tentation originaire de devenir Dieu sans Dieu», que le pape relie au récit de la Genèse, consiste à «vouloir conquérir par ses propres forces ce qui devrait au contraire être accueilli comme un don de Dieu».
«Les algorithmes ne sont pas neutres», insiste le pontife, qui juge important de pouvoir les «comprendre, les appréhender et les réguler» pour ne pas courir le risque de les voir tomber «entre de mauvaises mains». Il alerte en particulier sur le risque de «pollution cognitive» que permet l’intelligence artificielle dans le domaine de la communication et de la presse.
Car si ces technologies permettent aux hommes de «communiquer dans des langues qui leur sont inconnues», elles peuvent aussi faciliter la désinformation avec de «fausses nouvelles» – ou des «hyper trucages» audio ou visuels. Le pape confie d’ailleurs avoir été lui-même l’objet de ces images trompeuses – deep fake – générées par l’IA.
Le danger des «chambres d’écho»
Dans son message daté du 24 janvier 2024, le pape François met aussi en garde contre le phénomène des «chambres d’écho», un mécanisme qui enferme les personnes dans un «marécage anonyme, au service des intérêts du marché ou du pouvoir», en ne lui donnant accès qu’à une information stéréotypée. «Il n’est pas acceptable que l’utilisation de l’intelligence artificielle conduise à une pensée anonyme, à un assemblage de données non certifiées, à une déresponsabilisation éditoriale collective», insiste-t-il. Il avertit que l’absence de réaction face à ces réalités fait planer le «spectre d’un nouvel esclavage» en ouvrant à la «possibilité que quelques-uns conditionnent la pensée de tous».
Rien ne remplace les reportages sur le terrain
François insiste encore sur le fait que l’information ne doit pas être coupée de sa dimension «relationnelle». Celle-ci «implique le corps, l’être dans la réalité», et doit permettre de relayer non seulement des données, mais aussi «des expériences».
Le pape donne pour exemple les communications sur les guerres, opposant la «guerre parallèle» de la désinformation menée par certaines entités et les «reportages de guerre» qui permettent aux personnes de «toucher la souffrance» des victimes des conflits. Il rend d’ailleurs hommage aux nombreux journalistes morts ou blessés sur le terrain.
De très nombreuses questions
Sans apporter de réponse définitive, le pape conclut son texte en listant plusieurs grandes questions auxquelles doit répondre l’humanité concernant l’intelligence artificielle: la protection du professionnalisme des métiers de l’information, la responsabilisation des entreprises développant des plateformes concernant ce qu’elles y diffusent, la durabilité sur le plan écologique de cette technologie «extrêmement énergivore» et sa diffusion dans les pays en voie de développement.
Il demande aussi plus de transparence sur les algorithmes des plateformes et des moteurs de recherches (notamment sur la façon dont sont indexées et désindexées les données), sur les processus d’information et s’élève contre l’anonymat.
Répondre à ces questions, assure le pape, pourrait permettre d’«aligner les systèmes d’intelligence artificielle sur une communication pleinement humaine». «C’est à l’homme de décider s’il veut devenir la nourriture des algorithmes ou nourrir son cœur de liberté, sans laquelle on ne grandit pas en sagesse», conclut-il. (cath/imedia/cd/lb)
08/01/2024
Le doute, pour “humaniser” les intelligences artificielles
Le théologien franciscain Paolo Benanti est membre de l’organe consultatif des Nations Unies pour l’intelligence artificielle (IA). Il estime urgent d'élever le niveau de l'enseignement éthique des logiciels. Il préconise, afin de respecter au mieux la nature humaine, d’apprendre à l’IA à intégrer l...
Articles les plus lus
20/04/2026 - 16:05
Le nombre de paroisses réformées dans le canton de Vaud sera divisé par trois
Le nombre de paroisses de l’Église évangélique réformée vaudoise (EERV) doit passer de 86 à environ 30 d’ici 2029.
22/04/2026 - 19:00
"En Suisse, il y a une forte augmentation des demandes d'exorcisme"
En Suisse romande comme en Europe et aux États-Unis, le nombre de personnes se disant possédées ne cesse de croître, tout comme les demandes d’exorcisme. La possession serait-elle un simple trouble psychique? Une croyance teintée d’obscurantisme? La psychanalyste Marie Renaud-Trémelot répond.
«L’essor de l’IA brouille la distinction entre humain et machine»
Tomberons-nous amoureux de nos robots personnels? Les intelligences artificielles (IA) deviendront-elles nos confidentes intimes? Johan Rochel, éthicien de l’innovation à l’EPFL, scrute les enjeux vertigineux posés par l’humanisation des machines.
«C’est à l’homme de décider s’il veut devenir la nourriture des algorithmes ou nourrir son cœur de liberté», a déclaré le pape François dans son message pour la Journée mondiale des communications sociales 2024. Dans ce texte dédié au développement de l’IA, le pontife met en garde contre les risques “d’esclavage” que posent ces technologies. Une problématique réelle pour Johan Rochel, qui invite toutefois à peser le pour et le contre.
De nombreuses productions culturelles, livres ou films, développent le thème de la projection affective sur des machines humanisées. Est-ce complètement du domaine de la science-fiction?
Johan Rochel: Pas du tout, cela est bien en train de se produire sous nos yeux. Nous en avons déjà eu un aperçu en été 2022, lorsque Google a écarté Blake Lemoine, l’un de ses ingénieurs vedettes. Ce dernier assurait que son chatbot (robot conversationnel) avait développé des émotions et une conscience, qu’il lui avait confié ne pas vouloir être débranché.
"Le plus gros danger est le risque de manipulation."
Après seulement un an de ChatGPT, il apparaît clairement que ce genre de projection affective sur une machine est un phénomène courant.
Mais est-ce quelque chose de vraiment nouveau?
En fait, non. L’être humain a une propension à humaniser les objets qui l’entourent. On donne un nom à sa voiture, tout le monde a le réflexe de parler aux objets du quotidien. Dès les années 1960, des programmes informatiques ont provoqué un sentiment d'empathie chez les utilisateurs, le fameux effet "ELIZA". Les IA actuelles, avec leurs immenses capacités de communication, renforcent cette impression en faisant penser qu’elles réfléchissent comme nous. La tendance à se projeter et à oublier qu’il s’agit juste d’une machine est d’autant plus forte.
Quels problèmes cela va-t-il poser?
L’essor de l’IA brouille de plus en plus la distinction entre ce qui est humain et artificiel. Par exemple, lorsque j'appelle une hotline, j'aimerais savoir qui participe à l'interaction. Le plus gros danger que je vois est le risque de manipulation. La machine peut provoquer certaines réactions émotionnelles et chercher à les exploiter.
Le Valaisan Johan Rochel est docteur en droit et philosophe. Il est co-directeur d'ethix - laboratoire d'éthique de l'innovation. Il est chercheur en éthique et droit de l'innovation à l’Ecole polytechnique fédérale de Lausanne (EPFL) et enseignant de philosophie du droit à l'Université de Fribourg. Il a déjà publié plusieurs ouvrages, dont Les robots parmi nous, pour une éthique des machines (Savoir Suisse-2022). Il est également membre de la Constituante valaisanne. RZ
Cela peut être bien intentionné. Comme avec PARO, le bébé phoque robot utilisé pour calmer les résidents déments dans les maisons de retraite. Mais il y a beaucoup d’autres façons très tentantes d’utiliser l’IA avec de mauvaises intentions. On peut penser à de la manipulation économique ou politique. Récemment, un 'Deep Fake’ est apparu, manipulant la voix de Joe Biden, montrant le président appelant à ne pas aller voter.
Quels effets positifs peut avoir l’humanisation de l’IA?
Cela dépend des situations. Si vous êtes une personne sans aucune relation sociale, une IA conversationnelle peut vous sortir d’un sentiment de solitude, vous redonner goût à une forme d'interaction. A terme, vous pourriez retourner vers de vrais contacts humains.
Si, en revanche, vous “échangez” totalement vos relations humaines contre des interactions avec des machines, vous allez certainement vers un appauvrissement de votre vie. Il s’agit, comme pour toutes les technologies, de faire la part des choses.
Mais pourquoi, au final, la relation d’humain à humain serait-elle plus riche?
L’interaction humaine a certainement quelque chose d’irremplaçable. Notamment en rapport au phénomène d’empathie. Je me vois moi-même dans l’oeil d’un autre être humain, qui m’accorde du temps, de l’attention, de l’affection. Pour que la vie humaine ait de la valeur, on peut penser que des relations de ce type sont indispensables.
Nous avons d’ailleurs placé dans le projet de Constitution valaisanne (soumise au vote populaire le 3 mars 2024, ndlr) un “droit à une interaction humaine”. A partir de l’intuition que dans certaines situations de vie, le contact humain est nécessaire. C’est le cas en particulier dans des domaines tels que les soins ou l’éducation.
Cela ne ferme pas la porte à l’IA dans ces secteurs. Par exemple dans les soins, les machines peuvent avoir l’avantage de ne pas être porteuses d’un regard social jugeant. Elles pourraient réaliser des tâches pouvant susciter un sentiment de honte chez les personnes. Mais un contact humain minimal doit rester obligatoire.
Mais pourquoi, tout en étant conscients des risques, les concepteurs tendent-ils à humaniser toujours plus les machines?
Il y a évidemment un aspect marketing. Les industriels tentent d’éviter ce que l’on appelle la “vallée de l’étrange” (Uncanny Valley). C’est un espace théorique où la machine est à la fois trop et pas assez ressemblante à un humain. On ne parvient pas à clairement la ranger dans une catégorie, ce qui provoque un malaise, un inconfort. Le sentiment de malaise disparaît à mesure que les différences entre humain et machine s'amenuisent. Les designers cherchent à éviter cet espace de malaise. Le robot devrait être clairement identifiable en tant que tel.
Mais qu’est-ce qui différencie en fin de compte une intelligence humaine d’une artificielle?
C’est une question très difficile, tout d’abord parce qu’elle renvoie les théoriciens que nous sommes à la fragilité de nos propres théories sur ces phénomènes. Le fait est qu’il n’existe pas de définition qui fait consensus de l'intelligence, des émotions, des sentiments, de la conscience. Bien sûr, l’immense majorité des spécialistes diront que ChatGPT n’a pas de conscience. Il n'a pas la capacité de faire l'expérience d'une vie intérieure. Mais la confusion sur la définition permet à certains de prétendre le contraire sans que l’on puisse réellement argumenter contre.
Mais n’existe-t-il pas quelques critères?
On peut certes poser des fondamentaux. Aussi similaire qu’une machine puisse être d’un être humain, elle aura toujours été créée en vue de certains objectifs. Rien n’est neutre dans la production d’objets. A la base, il y a toujours des créateurs qui insufflent leurs propres valeurs dans leurs outils technologiques. Les choix réalisés par ses créateurs limitent drastiquement la capacité de la machine de faire elle-même des choix. Donc la machine n'est jamais libre ni autonome comme peut l'être un humain.
"Nous sommes nourris de science-fiction. Mais il faut garder à l’esprit que ce ne sont que des histoires."
On pourrait créer un outil d'IA en lui donnant un objectif très large, par exemple rendre le monde meilleur. Il pourrait alors prendre toutes les décisions qui lui sembleraient adaptées, même éliminer les humains, s’il les considérait comme un problème pour la planète. Mais cette autonomie de moyens très large reste cadrée par les choix de programmation. Ce que l'outil ne pourra jamais faire c’est décider d’arrêter de rendre le monde meilleur.
Les films nous présentent souvent des IA commençant à prendre leurs propres décisions, devenant totalement autonomes...
Oui, dans les films, il y a toujours ce moment “magique” où le robot prend conscience de lui-même et développe cette capacité d’autonomie. Sauf qu’on ne sait pas d’où cela vient, pourquoi il s’éloigne tout à coup de son code de programmation. Il y a là un saut conceptuel qui me paraît infranchissable. Nous sommes nourris de science-fiction. Ce qui est très utile pour poser de bonnes questions. Il faut toutefois garder à l’esprit que ce ne sont que des histoires. Mais bien sûr, peut-être que dans 50 ans tout le monde se moquera de ce que je viens de dire (rire).
Les tenants des religions qui attribuent à l’homme une âme transcendante, telles que le christianisme, n’ont-ils pas davantage de facilité à faire une différence entre l’intelligence humaine et artificielle?
A mes yeux, cette question éthique relève des "récits" où nous sommes en permanence. Dans une représentation judéo-chrétienne, l’homme trône au-dessus de la pyramide de la création. Vu qu’il a une place spécifique, le croyant se pense évidemment ontologiquement différent de la machine. Mais se pose alors la question de sa justification. C’est plus compliqué si la pyramide est basée sur les compétences. Là, la liste de différences humain-machine s’amenuise dangereusement (rires).
"L’IA va nous mettre devant des questions fondamentales et existentielles qu’il nous sera très utile d’explorer."
On peut aussi établir une différence fondamentale entre le vivant et le non vivant. Ce serait plutôt ce que le courant global 'écologique’ tente de faire. Mais cette approche met aussi sous pression la vision judéo-chrétienne de l’homme au sommet de la pyramide.
Le développement de l’IA a-t-il le potentiel de faire avancer l’humanité sur le plan éthique?
Certainement. Mais cela dépend du point de vue que l’on adopte. On peut se lamenter du fait que les humains ne battront plus jamais l’IA aux échecs. Ou l’on peut se dire que c’est un formidable outil pour s’améliorer à ce jeu. L'IA n'est plus un compétiteur, mais un instrument.
Globalement, l’IA va nous mettre devant des questions fondamentales et existentielles qu’il nous sera très utile d’explorer. Cela nous invitera notamment à redéfinir l’humanité, notre place dans l’univers. (cath.ch/rz)
Articles les plus lus
20/04/2026 - 16:05
Le nombre de paroisses réformées dans le canton de Vaud sera divisé par trois
Le nombre de paroisses de l’Église évangélique réformée vaudoise (EERV) doit passer de 86 à environ 30 d’ici 2029.
22/04/2026 - 19:00
"En Suisse, il y a une forte augmentation des demandes d'exorcisme"
En Suisse romande comme en Europe et aux États-Unis, le nombre de personnes se disant possédées ne cesse de croître, tout comme les demandes d’exorcisme. La possession serait-elle un simple trouble psychique? Une croyance teintée d’obscurantisme? La psychanalyste Marie Renaud-Trémelot répond.
“L’IA peut reproduire une infime partie de l’intelligence humaine”
Un diagnostic de votre médecin, l’octroi d’un prêt par votre banquier, votre engagement professionnel, l’accès à une prestation sociale seront peut-être bientôt décidés par une Intelligence Artificielle (IA). C’est dire si les enjeux éthiques de la 4e révolution industrielle sont grands. Le théologien Ezékiel Kwetchi Takam prône une approche techno-critique.
L’intelligence artificielle est un terme générique un peu fourre-tout. Comment la définir?
Ezékiel Kwetchi Takam: Historiquement le terme d’intelligence artificielle désigne l’ensemble des programmes capables de produire des résultats qui jusque là auraient eu besoin de l’intelligence d’un cerveau humain. Depuis les années 2000, il est entré dans le langage courant et pris un sens beaucoup plus vaste.
Mais en fait c’est un abus de langage. Dès les années 1950, les critiques ont signalé le caractère exclusivement 'imitationnel' de ce que l’on qualifie d’intelligence. Il faudrait parler plus justement de formes d’intelligence artificielle, des termes qui tiennent mieux compte de la pluralité des domaines et des usages et qui soulignent que ces dispositifs sont toujours des systèmes socio-techniques. C’est-à-dire des outils technologiques qui s’insèrent dans un contexte social et économique qu’ils ont toujours tendance à reproduire.
Comme le rappelle à juste titre le message du pape François pour la journée mondiale de la paix 2024, cette imitation n’est que fragmentaire. L’IA n’est capable de reproduire qu’une infime partie de l’intelligence humaine. Le terme technique correct serait en fait celui de systèmes algorithmiques.
Ezekiel Kwetchi Takam est doctorant en éthique théologique à l’Université de Genève. Ses travaux explorent, sous une perspective théologique, les enjeux éthiques de l’intelligence artificielle. Plus précisément, il s’agit de proposer, à lumière de la théologie de la libération, une critique de l’injustice algorithmique et de l’injustice des données/data. Parallèlement à ses recherches, il est le fondateur de l’Observatoire Euro-Africain de l’intelligence artificielle, qui œuvre pour une culture éthique de l’intelligence artificielle en Europe et en Afrique. MP
L’être humain se définit aussi par des dimensions comme les sentiments, la compassion, le pardon, la miséricorde. Comment l’IA pourrait-elle les prendre en compte?
L’âme qui définit notre rapport à la transcendance restera le monopole de l’intelligence humaine. La Bible parle de 'nephesh', le souffle comme la particularité qui anime les êtres vivants. Au rapport à la transcendance viennent se greffer des valeurs comme l’attachement, la compassion, l’empathie, le pardon. Comme je viens de le dire, l’IA ne peut être qu’imitative, reproductrice. Elle ne se situe pas dans le champ de la vérité.
L’homme communique par son corps. L’IA n’a évidement pas de corps, ce qui est très différent. 'L’apprentissage’ d’une machine n’a rien à voir avec l’apprentissage que nous avons du fait de notre corps et de nos rapports sociaux. Les gestes ou le sourire d’un robot humanoïde ne seront que des mimiques, même s’ils imitent le sentiment de compassion.
"L’humanité dès sa naissance a été expliquée en termes d’informations donc de data."
Un autre aspect est celui du pardon et de la rédemption. Internet, et a fortiori l’IA, n’oublient rien. Le moindre fait, même très ancien et privé, peut instantanément être remis en surface pour vous nuire. Or le droit à l’oubli est essentiel dans la vie en société. La rédemption est-elle encore possible à l’heure des réseaux sociaux? Des hommes politiques ont vu leur carrière détruite pour des faits ou des déclarations remontant à plusieurs décennies alors qu’ils étaient jeunes, naïfs ou insouciants. C’est une vraie interrogation.
Vous reprenez la thèse du 'dataïsme' qui estime que l’IA remplace la divinité.
Ce concept de 'dataïsme' a été présenté par le journaliste américain David Brooks en 2013. Il relève que l’humanité dès sa naissance a été expliquée en termes d’informations donc de data. Selon lui, on peut donc exploiter ces données pour comprendre le passé et le présent et anticiper le futur. Ces données nous définissent en tant qu’être social, politique ou économique. Ce concept est assez intéressant car il rend compte d’une réalité capitale pour la définition de l’être humain. Ce n’est pas seulement la biologie ou la dimension spirituelle qui nous caractérisent, mais aussi ces informations qui nous permettent de nous situer dans l’espace-temps.
En ce sens, l’IA serait une sorte de succédané de religion?
Le véritable danger vient du fait d’ériger cela en 'religion'. On peut faire une analogie avec les prophètes auto-proclamés de certaines Églises évangéliques qui se prétendent capables de prédire nos vies. Aujourd’hui avec la maîtrise d’un grand nombre de data, d’autres 'prophètes' peuvent les exploiter pour déterminer notre futur. Ce n’est plus une conséquence d’une révélation transcendante mais d’une exploitation des data.
Il y a une réduction de l’humain que le philosophe Marc Augé a dénoncé comme une 'sur-modernité'. L’être humain est réduit à un ensemble de chiffres, à un code. Nous sommes observés, décryptés. Nos faits, nos gestes, nos comportements, nos réactions, nos émotions sont analysés en temps réel par des algorithmes afin de déterminer les décisions et les actions que nous devons entreprendre.
D’où la nécessité d’encadrer l’IA par des règles éthiques.
C’est une évidence et une urgence. Au début 2023, des représentants des diverses religions ont signé au Vatican l’Appel de Rome pour l’éthique de l’IA promue par l’Académie pontificale pour la vie. On a forgé pour cela le terme d’algor-etica. Cet appel fixe six principes pour l’utilisation de l’IA.
"L’IA fonctionne quasi exclusivement sur un modèle basé sur une vision du monde et des valeurs occidentales."
Le premier est la transparence dès la conception même du système. Aujourd’hui, les systèmes sont le plus souvent opaques, ce sont des 'black-box' qui produisent des résultats selon des mécanismes que l’on ne parvient pas à saisir. Les développeurs ont la responsabilité d’être transparents dans leur processus d’élaboration. L’IA 'open source' est heureusement en train de croître. Pour expliquer simplement, elle vit comme wikipedia grâce aux contributions ouvertes de ses auteurs, par opposition aux 'closed IA' fermées qui sont aux mains de propriétaires privés.
Le deuxième principe est l’inclusion.
Pour l’heure, l’IA fonctionne quasi exclusivement sur un modèle basé sur une vision du monde et des valeurs occidentales, mais l’enjeu est en fait planétaire. Il s’agit donc d’inclure d’autres réalités ou systèmes culturels. Des efforts dans ce sens existent, mais il faut se méfier de 'l’ethic-washing' qui permet de se donner une bonne image à bon marché.
La responsabilité constitue le troisième des critères de base.
Elle est évidemment liée aux deux premiers. Le citoyen doit être en capacité d’identifier le responsable d’une IA que ce soit les développeurs, ou l’IA elle-même en raison de sa capacité d’autonomie. C’est le cas bien sûr face aux entreprises qui développent des IA dans un but de profit.
Le principe d’impartialité vient ensuite, il semble assez proche de celui de l’inclusion.
Oui. Il s’agit d’éviter les biais cognitifs et culturels et donner la parole à tous, en particulier aux groupes marginalisés. Il faut défendre la pluralité des savoirs. Concrètement cela passe par exemple par une participation des femmes plus équitable parmi les développeurs ou au sein des conseils d’administration des entreprises.
Une IA doit encore répondre au principe de fiabilité.
Elles s’applique aux moyens techniques et aux procédures avec des systèmes de vérifications et de contrôle, comme on en a, par exemple, pour le commerce des médicaments. C’est important parce qu’aujourd’hui les géants de l’informatique dictent souvent leur loi aux États ou ont tendance à se placer au dessus des législations nationales. L’Union Européenne a développé une législation, mais des voix se font entendre pour dire qu’une régulation risque de faire perdre en compétitivité.
"On pourrait dire que l’IA a phagocyté la dissuasion atomique."
La sécurité et de la confidentialité de données du points de vue de l’utilisateur est le sixième principe éthique.
Il faut éviter de faire des data des objets d’un commerce non réglementé et sans protection de la vie privée des individus qui est un des droits humains fondamentaux.
Les enjeux éthiques de l’IA ont également une dimension géo-politique.
On attribue à Vladimir Poutine cette sentence “Celui qui contrôle l’IA contrôlera le monde”. Cet enjeu va redéfinir les forces mondiales. Les tensions entre la Chine et les États-Unis l’illustrent bien. On pourrait dire que l’IA a phagocyté la dissuasion atomique.
Beaucoup voient dans l’IA un danger potentiel pour la démocratie.
Oui, il y a un risque d’assassinat de la démocratie. La capacité de manipulation de l’IA peut influencer les décisions politiques. Cela va des données de 'Cambridge analytica' exploitées par les équipes de campagne de Donald Trump aux 'deep Fake' ultra-réalistes très difficiles à repérer pour le citoyen ordinaire. Les législations des États sont souvent en retard sur ces sujets. Le renforcement des discriminations est un autre aspect à prendre en compte au plan social, par exemple dans le recrutement de personnel.
Grâce à l’IA, des États ont développé un système de surveillance des individus.
La société de surveillance est un des autres dangers de l’IA. En Chine, la reconnaissance faciale permet de traquer les personnes dont le comportement social n’est pas conforme et de leur infliger des punitions. Aux États-Unis, des noirs ont été arrêtés injustement parce le système de reconnaissance faciale n’avait pas été entraîné pour des visages de couleur. En France, on a fait des projets pilotes pour laisser l’IA décider de l’attribution de prestations sociales.
"Des centaines de milliers de personnes dans le monde, pour deux dollars de l’heure, trient et valident des datas 'à la main’, pour les grandes entreprises occidentales."
Vous rappelez en outre que les inégalités économiques sont un des aspects méconnus du développement de l’IA.
En effet, les dimensions 'existentielles' de l’IA occultent souvent la réalité économique. ChatGPT, aussi incroyable que cela puisse paraître, repose aussi sur le travail de centaines de milliers de personnes, au Kenya ou à Madagascar par exemple, qui, pour deux dollars de l’heure, trient et valident des datas 'à la main', pour les grandes entreprises occidentales. C’est pour cela aussi que parler d’intelligence artificielle est abusif, car des humains sont sacrifiés dans ce business.
Vous mettez en avant la nécessité d’un contre-discours qui privilégie dans les débats éthiques l‘aspect néfaste des créations technologiques. N’est-ce pas-là un discours de peur?
Cette peur est là non pas pour nous empêcher d’agir, mais plutôt pour nous inviter à le faire dans la perspective de protéger les générations futures. Dans l’histoire de l’humanité, toutes les grandes innovations se sont accompagnée de crainte et de fascination. Mais capitaliser sur les peurs vise à réduire les effets néfastes pour augmenter les incidences positives. Le fait de révéler une plaie est le premier pas vers son traitement. Il serait totalement faux de croire en un mythe du progrès technologique continu capable de résoudre tous les problèmes.
"L’IA peut offrir la possibilité pour l’humain d’ouvrir de nouveaux espaces pour développer et cultiver son humanité."
L’IA peut apporter aussi beaucoup de bienfaits.
Oui bien sûr. On parle de 4e révolution industrielle qui permet de réduire encore les travaux pénibles ou les tâches répétitives en améliorant la productivité. On peut parler aussi d’avancées majeures de la médecine, de la recherche scientifique, ou des communications entre autres domaines.
Globalement êtes-vous plutôt optimiste ou pessimiste?
Je suis réaliste. Je suis conscient des progrès et des innovations, mais je garde une attitude techno-critique dans un esprit de responsabilité envers le bien commun. On peut également voir dans l’utilisation de l’IA la possibilité pour l’humain d’ouvrir de nouveaux espaces pour précisément développer et cultiver son humanité. (cath.ch/mp)
Articles les plus lus
20/04/2026 - 16:05
Le nombre de paroisses réformées dans le canton de Vaud sera divisé par trois
Le nombre de paroisses de l’Église évangélique réformée vaudoise (EERV) doit passer de 86 à environ 30 d’ici 2029.
22/04/2026 - 19:00
"En Suisse, il y a une forte augmentation des demandes d'exorcisme"
En Suisse romande comme en Europe et aux États-Unis, le nombre de personnes se disant possédées ne cesse de croître, tout comme les demandes d’exorcisme. La possession serait-elle un simple trouble psychique? Une croyance teintée d’obscurantisme? La psychanalyste Marie Renaud-Trémelot répond.
Ne pas apparenter la création des machines à «l’acte créateur divin»
Le pape François a exhorté, le 12 février 2024, à combattre «l’hégémonie technocrate» et «la dérive vers la pensée unique». II recevait les membres de l’Académie pour la vie à l’occasion de l’inauguration de leur assemblée générale, au Vatican.
Dans son discours, l’évêque de Rome a estimé qu’il n’était «pas possible d’être a priori 'pour’ ou 'contre’ les machines et les technologies». Il a souligné qu’il n’existait pas de distinction claire «entre processus naturels et processus artificiels», comme si les premiers étaient «authentiquement humains» et les autres «opposés à l’humain».
Évoquant les capacités croissantes de la science et de la technique, le successeur de Pierre a dénoncé la «tentation insidieuse» de croire qu’il est «dans le pouvoir de l’homme d’insuffler l’esprit dans la matière inanimée», en apparentant la création des machines à «l’acte créateur divin».
Le spectre de «l’esclavagisme algorithmique»
Le pontife argentin a également critiqué la «tentative de reproduire l’être humain par les moyens et la logique de la technique». Il a estimé qu’une telle approche transhumaniste «implique la réduction de l’humain à un agrégat de prestations reproductibles à partir d’un langage numérique». Il a au contraire demandé d’empêcher «que l’humain ne soit défiguré». Il a jugé que la «spécificité unique» de l’homme résidait «dans la sphère du pathos et des émotions, du désir et de l’intentionnalité», à la différence des machines.
Ces derniers temps, le pontife de 87 ans a consacré plusieurs messages – dont celui pour la Journée mondiale de la paix le 1er janvier dernier – au thème de l’intelligence artificielle. Dans son message pour la 58e Journée mondiale des communications sociales, le 24 janvier, il a mis en garde contre le «spectre d’un nouvel esclavage» imposé par les algorithmes.
Appel à la liberté d’esprit
Faisant ses recommandations aux Académiciens, le chef de l’Église catholique leur a demandé «un style de recherche exigeante», fait «de liberté d’esprit, d’ouverture à s’aventurer sur des sentiers inexplorés et inconnus, en s’affranchissant de tout 'arriérisme’ stérile». Pour le pontife de 87 ans, il est ainsi «indispensable de remettre en question aussi les points de vue acquis et les hypothèses qui n’ont pas été examinées de manière critique».
L’assemblée générale de l’Académie pontificale pour la vie a lieu à Rome à l’Augustinianum, du 12 au 14 février, sur le thème L’homme. Significations et défis (Human. Meanings and Challenges). En présentant cet événement au Vatican après l’audience avec le pape, Mgr Vincenzo Paglia, président de l’Académie, a souligné l’urgence de cette question, étant donné que l’espèce humaine «risque aujourd’hui de disparaître par autodestruction ou par dépassement».
Mgr Paglia a rappelé par ailleurs que l’Académie pour la vie avait pour mission «d’approfondir» et de «débattre» et non pas de fixer les normes doctrinales ni d’ériger des textes magistériels. Les documents de cette institution n’ont pas donc pour but de «déterminer» des réponses aux questions morales, a-t-il insisté. (cath.ch/imedia/ak/rz)
14/12/2023
Le pape exhorte à légiférer sur l'intelligence artificielle
Le message pour la Journée mondiale des communications sociales 2024 du pape François porte sur l'intelligence artificielle. A cette occasion, cath.ch vous propose un dossier consacré à la foi et à l'IA. Une thématique qui intéresse tout autant qu'elle préoccupe le pontife.
Articles les plus lus
20/04/2026 - 16:05
Le nombre de paroisses réformées dans le canton de Vaud sera divisé par trois
Le nombre de paroisses de l’Église évangélique réformée vaudoise (EERV) doit passer de 86 à environ 30 d’ici 2029.
22/04/2026 - 19:00
"En Suisse, il y a une forte augmentation des demandes d'exorcisme"
En Suisse romande comme en Europe et aux États-Unis, le nombre de personnes se disant possédées ne cesse de croître, tout comme les demandes d’exorcisme. La possession serait-elle un simple trouble psychique? Une croyance teintée d’obscurantisme? La psychanalyste Marie Renaud-Trémelot répond.
Stève Bobillier: «L’IA ne peut pas prier, elle n’a pas de conscience»
Dans le cadre de son message pour la Journée mondiale des communications sociales 2024, le pape a ouvert une fenêtre à l’intelligence artificielle. Pour le professeur de philosophie Stève Bobillier, l’IA n’a pas de conscience de soi: elle ne peut donc pas exercer sa liberté, ni définir ce qui est juste.
Pensez-vous qu’un jour l’intelligence artificielle (IA) puisse devenir 'disciple de Jésus'?
Stève Bobillier: Se convertir à une religion ou se mettre à la suite de Jésus implique une foi. Or la foi n’est pas dans l’ordre du savoir. Si je suis croyant, cela veut dire que j’accorde une croyance à une donnée qui n’est pas connue jusqu’à ce qu’elle devienne intime et forte. Ce qui est, de ce point de vue-là, impossible pour l’intelligence artificielle. Parce que l’IA n’a pas de croyance; elle ne s’appuie que sur des données qu’elle traite.
Que représente l'IA selon vous?
Il faut bien être conscient que l’IA ne comprend pas la question que vous lui posez, ne comprend pas les données qu’elle traite, et ne comprend pas la réponse qu’elle donne. Il s’agit pour elle de données, du big-data. Ce que va faire l’IA, c’est d’aller chercher les données et de voir ce qui est le plus en lien entre les différents termes et d’amener la phrase ou la réponse la plus cohérente. C’est un traitement de données, loin de toute foi ou croyance.
"L’IA n’a pas de croyance; elle ne s’appuie que sur des données qu’elle traite."
De la même manière, est-ce que ma calculatrice pourrait croire un jour que – bien que un plus un égale deux factuellement –, en raison du mystère de la trinité, un plus un égale trois? On sait bien que la calculette ne le fera jamais, car elle traite des données factuelles, mais elle ne comprend pas ce qu’est l’égalité, l’addition, la soustraction, etc. Sur la question de la rapidité des traitements de données, elle est plus forte que nous; de même que l’IA en termes de quantité de données traitées. Mais le danger serait de lui prêter cette foi ou cette croyance, ce qui n’est pas possible.
Est-ce que le terme 'intelligence' est vraiment adapté à l'IA?
Un terme qui serait plus approprié est celui de l'anglais intelligency, – comme dans C.I.A. –, qui signifie 'renseignement'. Dans la mesure où les renseignements sont compilés et traités par pertinence, sans être critiqués ou jugés. Maintenant, cela dépend de ce que l’on définit par intelligence. Est-ce que le fait d’avoir beaucoup de savoirs à disposition me rend intelligent? Est-ce que mon encyclopédie est intelligente, puisqu’elle contient un grand nombre de savoirs? Dans ce cas, on parle d’intelligence comme une somme de savoirs: l’intelligence computationnelle.
"L’IA prend tout ce qu’elle trouve sur le net, sans démêler le vrai du faux"
Faire le comput, c’est faire le décompte, c’est-à-dire compiler tous les savoirs qui existent sur internet. Alors que l’intelligence, dans ma compréhension, devrait aussi avoir une capacité de mettre en lien et critiquer ces données. L’IA va prendre tout ce qu’elle trouve sur le net, sans pouvoir démêler le vrai du faux.
L’IA n’est donc pas dotée d’une intelligence critique…
Effectivement, on remarque que si l’on impose des faits erronés à l’IA, elle va finir par les intégrer comme données crédibles. Des étudiants ont fait le test, en demandant à ChatGPT de leur dire ce qui est le plus nourrissant entre un œuf de vache et un œuf de poule. Le logiciel a fini par leur répondre que l’œuf de vache est le plus nourrissant, parce qu’il est plus grand et qu’il contient davantage de matières grasses. Ces exemples prouvent que si l’on impose des faits à internet, l’IA ne peut pas les critiquer.
"Si l'on impose des faits erronés à l’IA, elle va finir par les intégrer comme données crédibles."
On en revient donc à la question de la définition d’intelligence…
Oui, et une autre limite de l’IA est l’intentionnalité, expliquent des philosophes contemporains comme John Searle. Si tout animal pose un acte en vue d’une finalité, l’ordinateur fait uniquement ce qu’on lui demande de faire. Il n’a pas, et n’aura sans doute jamais, d’intention. Contrairement à ce que pensent les partisans du 'fantasme de Terminator': ceux qui pensent qu’un jour les machines prendront le pas et développeront leurs propres intentions. Elles pourront certes changer ou redémarrer leur propre programme, mais elles ne pourront pas penser par elles-mêmes et prendre des décisions éthiques, parce qu’elles ne sont pas libres. C’est la grande différence entre l’intelligence et la pensée.
Intelligence et pensée: N'est-ce pas ce qui différencie l’animal de l’humain?
Absolument. L’intelligence permet, dans les questions quotidiennes, de répondre à des problèmes pratiques. Par exemple, le chemin le plus court que je peux prendre, si je dois aller faire des courses, chercher les enfants à l’école et passer à la poste. Cette capacité d’abstraction a également été observée chez certains animaux.
La pensée, que définit déjà Aristote comme spécificité humaine, est cette capacité de se rassembler pour définir ce qui est juste de ce qui ne l’est pas, de ce qui est préférable de ce qui ne l’est pas. La pensée donne du sens: est-ce que c’est bien ou mal? Seul l’humain, «animal politique», est capable de se réunir pour se poser cette question. Parce que l’ordinateur ne pourra jamais dire ce qui est bien et ce qui est mal, il ne sera pas jamais libre de choisir le bien et il ne pourra donc jamais se mettre à la suite du Christ.
Pensez-vous néanmoins que l’IA est un outil utile, si elle est employée avec intelligence?
Le danger est de confier des décisions éthiques à une machine qui est incapable de penser. Comme elle n’a pas de conscience morale, elle ne pourra pas juger de 'ses' propres actions et de leur valeur. C’est intéressant de se rappeler de l’analyse d’Annah Harendt au 'Procès Eichmann' à Jérusalem. Bien que Adolf Eichmann était un 'génie' du transport, il a totalement mis de côté sa conscience morale pour exécuter la 'solution finale', et s’est ainsi mis au service de l’horreur.
"Ce qui me préoccupe, ce n’est pas l’IA, mais le comportement humain face à l’IA."
Depuis plusieurs années, le pape François prône pour une transparence des algorithmes. Car nous le savons, les réactions émotionnelles sont plus grandes face aux contenus agressifs ou négatifs. Sur les réseaux sociaux, nous le voyons bien: si quelqu’un aime un contenu, il va mettre un petit cœur. Au contraire, il n’aime pas le contenu, il va poster un énorme commentaire, qui va inciter d’autres à répondre, etc. Nous voyons bien que ces algorithmes cherchent à faire réagir, mais nous ne savons pas comment ils sont programmés.
En conclusion, il vaut mieux garder l’IA a une distance raisonnable…
Ce qui me préoccupe, ce n’est pas l’IA, mais le comportement humain face à l’IA. Car nous n’avons pas encore compris à quoi sert le savoir: son but n’est pas d’amasser et posséder le plus grand nombre d’avoirs, ni de briller en société, mais bien d’apprendre, de changer sa capacité de penser et de changer ses perceptives sur le monde. Le problème de déléguer le savoir et la transformation du savoir à la machine nous empêche de penser le monde de manière critique, et d’être transformés, d’évoluer et de devenir meilleur. Le principal danger de l’IA est de lui laisser faire ce boulot de culture, de pensée, de vie intellectuelle et de vie de l’esprit, qui est en fait la plus belle partie du savoir. (cath.ch/gr)
Stève Bobillier enseigne la philosophie au collège St-Michel à Fribourg. Il est aussi membre de la commission étique et santé du Valais et membre de la commission de bioéthique de la Conférence des évêques suisses. GR
Articles les plus lus
20/04/2026 - 16:05
Le nombre de paroisses réformées dans le canton de Vaud sera divisé par trois
Le nombre de paroisses de l’Église évangélique réformée vaudoise (EERV) doit passer de 86 à environ 30 d’ici 2029.
22/04/2026 - 19:00
"En Suisse, il y a une forte augmentation des demandes d'exorcisme"
En Suisse romande comme en Europe et aux États-Unis, le nombre de personnes se disant possédées ne cesse de croître, tout comme les demandes d’exorcisme. La possession serait-elle un simple trouble psychique? Une croyance teintée d’obscurantisme? La psychanalyste Marie Renaud-Trémelot répond.
L’intelligence artificielle au service du Salut
L’intelligence artificielle (IA) fait-elle partie du plan de Dieu? Théologien et ingénieur en aéronautique, Jean-Marc Moschetta aime répondre par l’affirmative pour amener son interlocuteur à déplacer son regard et à réfléchir à une utilisation de l’IA au «service du salut».
Le développement des systèmes d’intelligence artificielle (IA) véhicule des craintes. En arguant que l’IA fait partie du projet de Dieu pour l’Homme, du fait de la vocation de co-créateur de celui-ci, vous défendez une vision plus optimiste. Qu’entendez-vous par là?
Jean-Marc Moschetta: Dieu a tout créé. C'est une affirmation fondamentale de la foi judéo-chrétienne. L'intelligence en général est une création de Dieu. Les machines actuelles qui simulent l'intelligence et sont des créations de l’intelligence humaine sont donc aussi l'œuvre de Dieu. C'est la même créativité divine qui s'exprime dans l’IA que dans l'apparition de l'intelligence naturelle, que j'appellerais l'intelligence biologique.
La nature a produit une forme de transcendance, c'est-à-dire une forme d'intelligence qui permet à l'être humain de se regarder en retour et de regarder plus loin que ce qu'il est. On ne peut pas se désoler que des hommes répliquent l'intelligence humaine dans des machines, de manière encore très balbutiante, et célébrer par ailleurs les progrès des processus naturels qui ont conduit aux homo sapiens, suite à nombre d’essais et de coûteuses erreurs sur des générations.
Toute création humaine, même la plus mauvaise, comme les armes de destruction massive, serait donc œuvre de Dieu?
Le parti pris du récit judéo-chrétien de la création, c'est de déclarer celle-ci «bonne». Mais on ne peut pas comprendre cette assertion sans référence à la temporalité biblique et à la perspective du Salut.
Une lecture traditionnelle du récit de la Genèse indique l’inachèvement structurel de la création divine: Dieu crée quelque chose qui est différent de lui et qui reste en cours d'achèvement, la lumière, les eaux, les animaux et l’Homme. Au septième jour, le shabbat, il est précisé que «Dieu acheva ce qu’il avait créé», ce qui suppose que la création des éléments du monde relève d’actions inachevées et bonnes à la fois. Le shabbat est un jour d'achèvement, mais nous sommes toujours dans le temps de l'achèvement de la création.
Regardez la nature, même indemne de la malice humaine. Elle est pleine de cruauté et d'immoralité. Des mésanges crèvent le cerveau de leurs petits pour se nourrir; des guêpes parasitoïdes pondent dans des larves d’autres insectes pour que leur progéniture s’y développe au prix de la vie qui les abrite. Ce sont ces observations qui ont amené Darwin à perdre la foi dans un Dieu bienveillant qui ne créerait que de belles choses.
C’est aussi cette ambiguïté de la créativité qui fait dire à Isaïe, au chapitre 11, que ce n'est pas ce que Dieu a voulu, que son dessein est la réconciliation, pour que le loup puisse habiter avec l'agneau et l'enfant mettre sa main sur le trou d’une vipère sans mourir. «Il n’y aura plus de mal ni de corruption sur toute ma montagne sainte; car la connaissance du Seigneur remplira le pays comme les eaux recouvrent le fond de la mer.» Rien de ce qui émerge dans le monde n’est parfait, mais tout est en lien avec le projet de Dieu.
«Je n'arrive pas à me persuader qu’un Dieu bienveillant et tout-puissant ait pu créer délibérément les ichneumons avec l'intention de les faire se nourrir de l’intérieur du corps de chenilles vivantes...
Il ne nous reste qu’à attendre tranquillement…
Au contraire. L'homme participe certes au projet de Dieu lorsqu’il produit quelque chose, que ce soit du bon ou du mauvais, des cantates de Bach ou des armes de destruction massive. Mais il est appelé en tant que co-créateur à transformer les objets conçus pour le mal.
La créativité humaine peut se mettre au service du salut ou s’ériger contre cette intention de réconciliation universelle. «De leurs épées, ils forgeront des socs, et de leurs lances, des faucilles», dit Isaïe (Is 2,4). C'est-à-dire que ces objets qui ont été créés pour faire le mal peuvent être réemployés et réorientés pour le beau et le bien. Purifiés.
La liberté que Dieu accorde aux humains devrait-elle s’appliquer par ricochet aux IA que ceux-ci créent? Des IA qui seraient libres de créer le monde, en dehors de toute gouvernance humaine. Est-ce la perspective que vous défendez?
Lorsque nous mettons nos enfants au monde, nous savons que nous n’aurons pas de pleins pouvoirs sur la manière dont ils exerceront leurs choix et leurs libertés. Le feront-ils au service de la vie ou du mal? Il n'y a pas de raison d'être plus inquiets avec les IA et de s’attendre à ce qu’elles fassent mieux ou pire.
Cela dit, si nous sommes effectivement face à des systèmes qui auront sans doute un jour la possibilité de choisir par eux-mêmes, nous ne sommes pas obligés d’aller dans cette direction. Le danger est qu'on accorde des prérogatives «d’enfants gâtés» à des systèmes d’IA pas suffisamment bien «éduqués» pour prendre les bonnes décisions. On le fait déjà avec les robots financiers qui choisissent d'acheter ou de revendre du blé sur tel ou tel marché, pour maximiser le profit des investisseurs qui les ont «mis au monde», sans se préoccuper de contraintes éthiques.
Vous travaillez au développement de drones. L’autonomie que peut leur conférer l’IA dans leur usage militaire soulève de nouvelles questions en termes de responsabilité humaine, ou plutôt de déresponsabilisation humaine!
On a là un exemple intéressant. La machine pourrait effectivement décider à notre place de frapper un objectif, sur la seule base d’analyses algorithmiques d'images ou d'identifications de cibles. Or les guerres modernes se font le plus souvent dans les villes, là où combattants et civils sont difficilement distinguables.
Que voulons-nous vraiment? Sommes-nous d’accord ou non de perdre un avantage militaire en n’utilisant pas ces drones intelligents, afin d’appliquer le principe éthique du droit humanitaire international de discrimination entre combattants et non combattants? Là se situe notre liberté.
"Les objets techniques influencent nos décisions sans qu’on n’y prenne nécessairement garde."
On peut aussi imaginer intégrer les règles éthiques dans les processus de prise de décision des drones. Certains chercheurs en éthique militaire avancent que l'un des avantages des robots armés dont le système a intégré ces règles, c’est qu’ils ne sont pas écrasés par l'émotion, qu’ils continuent en toutes circonstances à appliquer leurs algorithmes. Cela éviterait les carnages sous l’effet de la peur. Mais c’est vite oublier les effets induits associés aux machines.
C’est-à-dire ?
Les objets techniques ont certes une ambivalence intrinsèque: il n'est pas nécessaire d'avoir un calibre 45 pour exécuter une personne, on peut le faire avec un tournevis. Mais ils influencent aussi nos décisions sans qu’on n’y prenne nécessairement garde.
Prenons un GPS utilisé sur un trajet qui vous est parfaitement familier. Mais parce qu’il indique un autre chemin, le doute s’insinue. «Si ça se trouve, il y a un accident», et vous allez suivre son conseil. Il risque de se passer la même chose avec l'usage de systèmes d’AI pour les opérations militaires. L'humain, qui est censé décider in fine, va suivre l'avis de l’IA plutôt que de prendre le risque de choisir une autre option et se voir reprocher ses conséquences. C'est ce qu'on appelle un effet induit.
C’est assez probant sur les réseaux sociaux.
Tout à fait. Sur la base d’algorithmes, on vous suggère des images, des vidéos, et finalement vous êtes poussé à modifier vos choix. Le système ne vous impose rien, mais induit chez vous des comportements.
Prenons le domaine de l’éducation religieuse, qui se fait moins en famille aujourd’hui. Les jeunes en recherche de sens se tournent volontiers vers le web pour trouver des réponses. Les IA pourraient-ils être une manière efficace d’évangéliser? Avec quels dangers?
Grâce aux outils numérique, les jeunes vont accéder à des formats résumés de la foi chrétienne qui sont plus accessibles par définition et les rejoignent là où ils sont. C’est positif. Le premier danger, toutefois, c'est qu’ils vont se trouver face un système qui va se contenter de les conduire là où ils ont déjà leur inclination. Il y aussi le risque que ces formats très courts soient très simplificateurs, tranchés, peu équilibrés finalement.
La prédication chrétienne consiste certes à rendre des choses complexes assez simples, parlantes, avec des images, des paraboles comme le faisait Jésus, mais sans tomber dans des caricatures. L'accès à la profondeur de vue, à une compréhension et une appropriation des concepts est impossible en 30 secondes.
Prenons un exemple assez parlant de la foi chrétienne. Une fois que nous avons dit: «Jésus-Christ est à la fois vrai Dieu et vrai homme», comme défini par dans le concile de Chalcédoine au 5e siècle, on n'a pas dit grand-chose… Si on ajoute «sans confusion ni mélange», on entre dans la finesse, mais comment l’expliquer rapidement? L'instantanéité que nous propose les réseaux sociaux nous tient à distance de ces mystères, même quand on y passe du temps.
En même temps l’IA pourrait proposer des développement théologiques pertinents sur la base de ce qui existe déjà. Peut-on imaginer qu’elle ouvre des perspectives sur ce plan-là?
Tout à fait. On attend de l’IA qu'elle aide à résumer, mais elle peut aussi proposer du nouveau. Mais pour l’instant, on en est encore loin.
Vous appelez donc au discernement de chacun quant à l’utilisation de l’IA?
Oui. En ce temps de carême, le jeûne numérique est de mise, et c’est une bonne chose. Il faut prendre du recul pour réfléchir à comment rendre l’objet technique, de sa conception à son utilisation, plus conforme avec l'idée que nous nous faisons de notre vocation.
Prenez l’exemple des répondeurs des services administratifs, qui nous invitent à composer le 1 pour tel service, etc. Les entreprises qui le mettent en place se posent-elles la question de savoir si c’est là un progrès? Il y a rarement de métrique de performance. Cela demanderait du temps, de l'argent et cela n'intéresse finalement personne. On subit, sans vouloir payer pour avoir ce retour. Un travail énorme nous attend. (cath.ch/lb)

Jean-Marc Moschetta
Docteur en théologie et en aéronautique, Jean-Marc Moschetta est chercheur à l’Institut catholique de Toulouse et professeur d’aérodynamique à l’Institut supérieur de l’aéronautique et de l’espace (ISAE-SUPAERO). Il travaille depuis vingt ans sur l'amélioration des performances de drones et participe à un groupe de travail sur le transhumanisme.
Auteur de Jésus viendra-t-il aussi sauver les machines? (Mame 2021), Jean-Marc Moschetta est régulièrement mandaté par des communautés catholiques pour animer des sessions d’information et d’échanges autour de ces questions. Comme chez les dominicaines du Saint Nom de Jésus de Toulouse, impliquées auprès des jeunes, ou des moines bénédictins de l'abbaye d'En Calcat, dans le Tarn. LB
Le Saint-Siège et les armes autonome létales
Le 4 mars 2024, Mgr Ettore Balestrero, nonce auprès des Nations Unies à Genève, a fait une déclaration au Groupe d'experts gouvernementaux sur les technologies émergentes dans le domaine des systèmes d’armes létaux autonomes (SALA). Le Saint-Siège est un fervent partisan de la négociation d'un instrument juridiquement contraignant sur les SALA, a-t-il affirmé, et, dans l'intervalle, d'un moratoire immédiat sur leur développement ou utilisation.
Mgr Balestrero a rappelé la «grave» préoccupation éthique exprimée à leur propos par le pape François lors de la Journée mondiale de la paix 2024. L’utilisation à grande échelle, de drones armés, notamment de drones kamikazes et de drones en essaim, et le rythme des avancées technologiques accentuent l’urgence de la question, a-t-il encore souligné.
Les drones induisent une «perception atténuée de la dévastation causée», qui mène à une approche toujours plus froide et détachée de la question de leur utilisation. LB
Articles les plus lus
20/04/2026 - 16:05
Le nombre de paroisses réformées dans le canton de Vaud sera divisé par trois
Le nombre de paroisses de l’Église évangélique réformée vaudoise (EERV) doit passer de 86 à environ 30 d’ici 2029.
22/04/2026 - 19:00
"En Suisse, il y a une forte augmentation des demandes d'exorcisme"
En Suisse romande comme en Europe et aux États-Unis, le nombre de personnes se disant possédées ne cesse de croître, tout comme les demandes d’exorcisme. La possession serait-elle un simple trouble psychique? Une croyance teintée d’obscurantisme? La psychanalyste Marie Renaud-Trémelot répond.
Intelligence artificielle: les forçats du monde numérique
Derrière l’intelligence artificielle (IA) se cachent en fait des millions de travailleurs précaires partout dans le monde. Qui passent leurs journées ou leurs nuits à annoter des milliards de données. Éclairage sur ces forçats du numérique.
L'idée que le grand public se fait de l'intelligence artificielle (IA) est largement façonnée par la pop culture, notamment par des films à succès et leurs scénarios apocalyptiques de machines devenant incontrôlables et détruisant l'humanité.
Cette représentation de machines super-intelligentes, dotées d'un pouvoir de décision et d’action propre, est très éloignée de la réalité. Elle cache surtout l’existence de millions de travailleurs précarisés dans le monde entier qui 'nourrissent’ les machines avec des données de tous ordres
"ChatGPT, aussi incroyable que cela puisse paraître, repose sur le travail de centaines de milliers de personnes, au Kenya ou à Madagascar par exemple, qui, pour quelques dollars par jour, trient et valident des datas à la 'main’, pour les grandes entreprises occidentales”, note pour cath.ch l’éthicien d’origine camerounaise Ezekiel Takam
Linda, Carlos ou Franck
Les robots s’appellent donc en réalité Linda, Carlos ou Franck, et viennent d’Argentine, d’Inde, du Mexique, du Nigeria, et même d’Europe. “Les microtravailleurs exercent aussi bien dans les pays du Nord que dans ceux du Sud, mais avec des profils différents, analyse Antonio Casilli, professeur de sociologie à Télécom Paris, dans une interview à La Croix. Dans les pays du Nord, il s’agit plutôt de femmes, diplômées, entre 24 et 44 ans, qui ont une autre activité par ailleurs et complètent leurs revenus. Dans les pays du Sud, ce sont des hommes, plus jeunes, qui n’accèdent pas au marché du travail.” Le professeur estime leur nombre à 16 millions de personnes dans le monde.
À Cagayan de Oro, aux Philippines, les petites mains de l’IA travaillent ainsi jour et nuit, chaque jour de la semaine
Des Philippines au Kenya
À Cagayan de Oro, aux Philippines, les petites mains de l’IA travaillent ainsi jour et nuit, chaque jour de la semaine. 'Je viens ici du lundi au samedi, parfois le dimanche', raconte Kieffer, 23 ans, dans un reportage du magazine Amnesty. À l’intérieur de la salle dans laquelle il travaille, une vingtaine de ses collègues s’entassent dans une quinzaine de mètres carrés. Leur gain: quelques dollars par jour.
Aucune des personnes employées ne possède de contrat de travail. Les salaires sont versés en ligne, hors du système bancaire national. Ces emplois ne sont ainsi pas déclarés. Sur le papier, ces gens sont des sous-traitants indépendants, même s’ils ont un lieu de travail fixe, des chefs et des horaires de travail déterminés. Ce qui s’apparente clairement à de l’exploitation.
L’IA n’est pas intelligente
L’IA n’est pas "intelligente' mais a besoin d’être ‘entraînée’ pour fournir des résultats, tandis que la donnée n’est jamais ‘donnée’, mais précisément produite. Pour qu’une machine différencie un chat d’un chien, il faut d’abord lui fournir des dizaines de milliers de photographies annotées avec la réponse. C’est ensuite qu’elle pourra déterminer s’il s’agit d’un félin.
Les grands acteurs numériques ont compris très tôt que de gros volumes de travail chronophage pouvaient être décomposés en tâches plus petites pouvant être rapidement accomplies par des millions de personnes dans le monde. Ainsi l’annotation manuelle d'un million d'images peut être plus facilement exécutée par un millier de travailleurs étiquetant chacun 1000 images.
Dans tous les domaines
Le travail d’annotation ou d’étiquetage peut concerner des domaines très variés, de la publicité au commerce, de la recherche scientifique à la surveillance collective. Une enquête du Time, en 2023, révélait que des travailleurs kényans, payés moins de trois euros de l’heure, étaient chargés de s’assurer que les données utilisées pour entraîner ChatGPT ne comportaient pas de contenu à caractère discriminatoire. Au Venezuela, des travailleurs étiquettent les données pour les systèmes de reconnaissance d'images dans les véhicules autonomes à Los Angeles. En Bulgarie, des réfugiés syriens alimentent les systèmes de reconnaissance faciale avec des selfies étiquetés selon les catégories de race, de sexe et d'âge.
Les modérateurs de contenu effectuent des tâches traumatisantes tout en étant étroitement surveillés.
Parfois, outre l'étiquetage de données récupérées sur le net, certains emplois exigent que les ouvriers fournissent eux-mêmes des données, en leur demandant de télécharger des selfies, des photos de leurs amis et de leur famille ou des images des objets qui les entourent.
Les modérateurs de contenu
Le statut des modérateurs de contenu est encore plus exigeant. Ils sont contraints d'effectuer des tâches traumatisantes, tout en étant étroitement surveillés. Chaque vidéo de meurtre, de suicide, d'agression sexuelle ou de maltraitance d'enfant qui n’a pas été diffusée sur une plate-forme a été visionnée et signalée par un modérateur ou par un système automatique dont l’entraînement a été assuré par des humains. Exposés constamment à des contenus violents, les employés peuvent souffrir de traumatismes. Ils ne disposent que rarement d’un soutien psychologique suffisant. Ils sont en outre soumis à une surveillance continue et exposés à un renvoi immédiat en cas d’erreur.
Pour une IA juste et équitable
Quelques opérateurs affirment vouloir contribuer à un écosystème d’IA juste et équitable. Ils reconnaissent la valeur de leurs annotateurs et garantissent une rémunération correcte et des conditions de travail justes. Ils leur offrent des contrats permanents et leur proposent une formation continue. Maintenir ainsi leurs compétences sur différents outils, types de données et tâches pourrait s’avérer payant dans la durée.
"La confiance excessive dans les entreprises privées pour 'faire ce qui est juste' n'est tout simplement pas suffisante."
Mais dans l’immense majorité des cas, la protection des travailleurs est quasi nulle. Alors que les entreprises traitent souvent leurs travailleurs à faible revenu comme des objets jetables, elles hésitent néanmoins davantage à perdre leurs cadres locaux formés, qui peuvent rapidement trouver un emploi chez des concurrents. Ces derniers disposent ainsi d'une plus grande marge de manœuvre pour s'organiser, se syndiquer. Ce qui pourrait entraîner une évolution de la branche.
Faire ce qui est juste
“A l’heure actuelle, l’IA générative est encore développée et déployée sans que l’on sache exactement comment garantir la sécurité, relevait en janvier 2024 Volker Türk, Haut-Commissaire des Nations-Unies aux droits de l’homme dans un discours à l’Université de Stanford, aux États-Unis. J’irais même plus loin en disant que cela a lieu sans vision claire quant aux objectifs à atteindre. Une transparence limitée, une responsabilité floue et une confiance excessive dans les entreprises privées pour 'faire ce qui est juste' ne sont tout simplement pas suffisantes face à ces puissantes technologies.”
“Le cadre des droits de l’homme constitue la base dont nous avons besoin de toute urgence pour innover et exploiter le potentiel de l’IA. Il peut également aider à prévenir et atténuer une multitude de risques et éviter que l’IA générative ne devienne un vecteur de violations généralisées des droits de l’homme, d’atteintes à ces droits, de discrimination et d’exclusion”, concluait-il. (cath.ch/mp)
Articles les plus lus
20/04/2026 - 16:05
Le nombre de paroisses réformées dans le canton de Vaud sera divisé par trois
Le nombre de paroisses de l’Église évangélique réformée vaudoise (EERV) doit passer de 86 à environ 30 d’ici 2029.
22/04/2026 - 19:00
"En Suisse, il y a une forte augmentation des demandes d'exorcisme"
En Suisse romande comme en Europe et aux États-Unis, le nombre de personnes se disant possédées ne cesse de croître, tout comme les demandes d’exorcisme. La possession serait-elle un simple trouble psychique? Une croyance teintée d’obscurantisme? La psychanalyste Marie Renaud-Trémelot répond.
"L’IA est un outil fascinant et redoutable»
À Bari, ce 14 juin 2024, dans un long discours remis aux chefs d’État et de gouvernement venus participer au sommet du G7, le pape François alerte sur les dangers d’une intelligence artificielle (IA) non ordonnée vers le «bien commun». Pour le pape, il est urgent que les dirigeants du monde passent à «l’action politique» pour encadrer cet «outil extrêmement puissant».
À 87 ans, le pontife s’est déplacé en hélicoptère jusque dans les Pouilles pour remettre aux principaux dirigeants de la planète une réflexion dense sur l’IA. Giorgia Meloni, la cheffe du gouvernement italien, a tenu à ce qu’il puisse porter à ce sommet international l’appel du Saint-Siège pour une éthique de l’IA. Entre deux sessions de courtes rencontres bilatérales – le pape a notamment rencontré les présidents Macron (France), Zelensky (Ukraine) ou bien Trudeau (Canada) -, il a pris la parole pour décomposer la mécanique de l’IA et tenter de convaincre les responsables de la nécessité d’agir.
Après avoir salué un à un les quelque 24 chefs d’États et de gouvernement – dont Joe Biden (États-Unis), Javier Milei (Argentine) ou bien Narendra Modi (Inde), le pape a pris place autour de la vaste table ovale entre Giorgia Meloni et Emmanuel Macron.
Un outil fascinant et redoutable
«L’IA [est] un outil fascinant et redoutable et qui appelle une réflexion à la hauteur de la situation», avertit le pape dans la version longue de son discours remis aux participants. Soulignant qu’«il va de soi que les bienfaits ou les méfaits qu’elle apportera dépendront de son utilisation», il fait observer que l’apparition du «silex» a été utile à la vie quotidienne, mais qu’il a aussi été utilisé pour «s’entretuer». De même, la fusion nucléaire peut aussi bien produire de l’énergie que «réduire notre planète en un tas de cendres».
Or, l’IA est «encore plus complexe», prévient le pape, puisqu’elle peut «faire des choix indépendants de l’être humain», en se basant notamment sur des «déductions statistiques». Pour lui, l’urgence est de s’entendre sur un principe: «Face aux prodiges des machines, qui semblent capables de choisir de manière autonome, nous devons être clairs sur le fait que la décision doit toujours être laissée à l’être humain […] La dignité humaine elle-même en dépend».
À l’heure où les 'robots-tueurs’ deviennent réalité, le chef de l’Église catholique réclame l’interdiction des «armes autonomes létales» afin qu’aucune machine ne puisse «jamais choisir d’ôter la vie».
La Justice et l’Éducation menacées par l’IA
Dans le domaine de la justice, qui pourrait être bientôt envahi par les statistiques et les probabilités, le pape décrit les programmes qui visent dès à présent à aider les magistrats pour décider de l’assignation à résidence des détenus purgeant une peine. «On demande à l’IA de pronostiquer la probabilité de récidive […] à partir de catégories prédéfinies: type de crime, comportement en prison, évaluation psychologique et autres», détaille-t-il.
Mais «l’être humain évolue en permanence et se montre capable de surprendre par ses actes», insiste le pape, qui déplore qu’une telle méthode probabiliste puisse se développer. Et d’ajouter que les algorithmes sont parfois devenus tellement complexes «qu’il est difficile pour les programmateurs eux-mêmes de comprendre exactement comment ils réussissent à obtenir leurs résultats».
L’IA bouleverse aussi le monde de l’éducation, relève par ailleurs le pape, qui rapporte les habitudes de ces étudiants qui utilisent des applications pour «composer un texte ou produire une image». Ils oublient, selon lui, que l’intelligence artificielle n’est «pas vraiment 'générative’» mais 'renforçatrice’, en ce sens qu’elle «réorganise des contenus existants, contribuant à les consolider, souvent sans vérifier s’ils contiennent des erreurs ou des idées préconçues». Et de pointer notamment du doigt le risque des fake news.
«La politique est nécessaire!»
Face à ce risque de voir le monde perdre «le sens profond» de la personne humaine, le pape François enjoint les dirigeants à réaliser «qu’aucune innovation n’est neutre». Reprenant les termes de son Appel de Rome pour une éthique de l’IA – texte de 2020 signé par des entreprises telles que IBM, Microsoft ou bien Cisco -, il appelle les responsables à agir pour donner un cadre éthique à l’IA.
«La politique est nécessaire!», martèle-t-il, afin qu’elle crée les conditions d’un usage de l’IA «possible et fécond». À la table du G7, le pape est peu sorti de ses notes. Mais, levant la tête vers les chefs d’État et de gouvernement, il a toutefois insisté: «La politique est la forme la plus haute de la charité, la forme plus haute de l’amour». (cath.ch/imedia/hl/bh)
14/12/2023
Le pape exhorte à légiférer sur l'intelligence artificielle
Le message pour la Journée mondiale des communications sociales 2024 du pape François porte sur l'intelligence artificielle. A cette occasion, cath.ch vous propose un dossier consacré à la foi et à l'IA. Une thématique qui intéresse tout autant qu'elle préoccupe le pontife.
Articles les plus lus
20/04/2026 - 16:05
Le nombre de paroisses réformées dans le canton de Vaud sera divisé par trois
Le nombre de paroisses de l’Église évangélique réformée vaudoise (EERV) doit passer de 86 à environ 30 d’ici 2029.
22/04/2026 - 19:00
"En Suisse, il y a une forte augmentation des demandes d'exorcisme"
En Suisse romande comme en Europe et aux États-Unis, le nombre de personnes se disant possédées ne cesse de croître, tout comme les demandes d’exorcisme. La possession serait-elle un simple trouble psychique? Une croyance teintée d’obscurantisme? La psychanalyste Marie Renaud-Trémelot répond.
Face à l'intelligence artificielle, le Vatican met en garde contre "l’idolâtrie"
"L’Église encourage les progrès dans la science, dans la technologie, dans les arts et dans toute entreprise humaine" mais souligne l’importance d’un "usage responsable de la rationalité et de la capacité technique", indique la note Antiqua et Nova sur le rapport entre intelligence artificielle (IA)...
Article réservé aux abonnés
Cet article est réservé à nos abonnés. Connectez-vous ou abonnez-vous pour lire la suite.
Articles les plus lus
20/04/2026 - 16:05
Le nombre de paroisses réformées dans le canton de Vaud sera divisé par trois
Le nombre de paroisses de l’Église évangélique réformée vaudoise (EERV) doit passer de 86 à environ 30 d’ici 2029.
22/04/2026 - 19:00
"En Suisse, il y a une forte augmentation des demandes d'exorcisme"
En Suisse romande comme en Europe et aux États-Unis, le nombre de personnes se disant possédées ne cesse de croître, tout comme les demandes d’exorcisme. La possession serait-elle un simple trouble psychique? Une croyance teintée d’obscurantisme? La psychanalyste Marie Renaud-Trémelot répond.
À Delémont, le philosophe Bernard Reber démystifie l’IA
Le philosophe et chercheur jurassien Bernard Reber a analysé les enjeux de l’intelligence artificielle (IA), le 12 mars 2025, à Delémont.
A l'occasion de sa conférence au Centre l’Avenir, dans le chef-lieu jurassien, Bernard Reber a su démystifier la problématique de l'intelligence artificielle devant un public conquis, rapporte le Service de communication du Jura pastoral. Dans son approche chrétienne et humaniste, ce spécialiste en philosophie sociale et politique a rappelé l'importance de prendre du recul dans notre manière de recourir à ces nouvelles technologies révolutionnaires.
Né à Delémont, Bernard Reber, docteur en philosophie sociale et directeur de recherche au CNRS à Paris, a été l'invité de l’Association des amis de Notre-Dame du Vorbourg. (cath.ch/com/rz)
Articles les plus lus
20/04/2026 - 16:05
Le nombre de paroisses réformées dans le canton de Vaud sera divisé par trois
Le nombre de paroisses de l’Église évangélique réformée vaudoise (EERV) doit passer de 86 à environ 30 d’ici 2029.
22/04/2026 - 19:00
"En Suisse, il y a une forte augmentation des demandes d'exorcisme"
En Suisse romande comme en Europe et aux États-Unis, le nombre de personnes se disant possédées ne cesse de croître, tout comme les demandes d’exorcisme. La possession serait-elle un simple trouble psychique? Une croyance teintée d’obscurantisme? La psychanalyste Marie Renaud-Trémelot répond.