La Nation Bénin...
La
révolution numérique est en marche. Elle permet au génie humain de s’exprimer
par la créativité et l’innovation. Qualifiée de cinquième révolution
industrielle, l’exploitation de l’Ia se démocratise et est en train de remettre
en cause certaines certitudes.
L’Ia est un système fonctionnant grâce à une machine capable d’influencer son environnement en produisant des résultats (tels que des prédictions, des recommandations ou des décisions) pour répondre à un ensemble donné d’objectifs définis par l’homme . Elle est, selon un rapport de la Haca , l’ensemble des technologies visant à réaliser par l’informatique des tâches cognitives, traditionnellement effectuées par l’humain .
L’Ia
représente aujourd'hui un domaine en plein essor, cependant, c’est peu dire
qu’elle comporte des risques multiformes tels que la perte de contrôle, la
discrimination, l'automatisation et le manque d’émotion. Ces enjeux nous
renvoient inévitablement au personnage emblématique de Frankenstein, qui
incarne les dangers de l'humanité qui s'aventure à jouer le rôle de créateur en
donnant vie à des entités artificielles. L'expansion de l’Ia touche désormais
des domaines qui étaient autrefois l'apanage de l'homme, ouvrant ainsi un
éventail d'opportunités allant de l'industrie à la sphère ludique, en passant
par le secteur commercial, policier, prédictif et éthique. Toutefois, elle peut
également refléter nos biais, mettant en lumière la nécessité urgente d'établir
des règles éthiques pour prévenir tout dérapage. Ce qui nous intéresse, c’est
la capacité des régulateurs de contenus à appréhender et intégrer cette
nouvelle donne dans leur activité quotidienne de régulation.
La
présente réflexion présentera les enjeux de l’Ia (I). Elle fera, pour des
intérêts scientifiques, abstraction des autres volets de l’activité
journalistique pour ne s’en tenir qu’à la production et à la diffusion des
contenus car dans la plupart des pays africains, à quelques exceptions près,
les défis liés à la bonne organisation et à la structuration de l’écosystème
médiatique sont des défis permanents.
Nous
répondrons également à la question de la mise en place, par le régulateur, de
nouveaux paradigmes qui prennent en compte les exigences liées à une Ia
vertueuse et la nécessité d’une maitrise de la régulation structurelle.
Les enjeux de l’usage de l’Ia dans la production et la diffusion du contenu informationnel
L’Ia permet l’amélioration de la qualité des contenus mis à la disposition des consommateurs mais peut aussi a contrario révéler de nombreux biais préjudiciables au droit à l’information des citoyens.
•L’amélioration du contenu informationnel par l’usage de l’Ia
L’Ia a besoin de grands volumes de données, nécessaires à son efficacité. Des caractéristiques sont alors extraites permettant ainsi leur traitement pour aboutir à un résultat donné. L’intervention humaine est nécessaire en ce qui concerne les systèmes d’apprentissage automatique, et ce, pour définir à la machine les conditions d’extraction des caractéristiques recherchées. Les systèmes d’Ia révolutionnent la façon dont les informations sont créées sur différents supports, notamment les textes, les audios, les images et les vidéos.
L’Ia
permet aux professionnels des médias d’avoir accès à d’importantes données,
facilité par la mise en place des big data.
-
L’Ia permet l’extraction automatique d’une grande quantité de données dès
l’ingestion d’un fichier multimédia. Ceci inclut la reconnaissance faciale,
d’objets, de lieux, d’organisations et de logos, l’analyse des couches audio,
la reconnaissance vocale et la traduction automatique, la reconnaissance
optique de caractères ainsi que l’analyse de sentiments et la détection
d’émotions.
-
Grâce à l’Ia, le catalogage des médias est automatisé, permettant aux créateurs
de se concentrer sur la production de contenus. L’utilisation d’outils comme
Databinder simplifie la validation des métadonnées, conduisant à un catalogue
de contenus plus précis et exhaustif.
-
L’Ia génère un volume important de données, offrant des recherches plus
précises grâce à de nombreuses options et paramètres. Cela permet une
adaptation plus fine de la recherche de contenus selon les besoins spécifiques
de l’utilisateur.
-
L’Ia permet de détecter et récupérer automatiquement des segments de vidéos
spécifiques, de les intégrer directement dans un éditeur vidéo web et de
produire rapidement un contenu final prêt à être diffusé.
-
L’Ia facilite l’automatisation du sous-titrage par l’analyse linguistique, la
reconnaissance vocale et la traduction automatique. Elle permet la création de
sous-titres dans plusieurs langues à partir de textes audio, avec une
segmentation précise et des codes temporels.
-
L’Ia peut faciliter la modération des contenus, surtout dans les contextes
soumis à des réglementations spécifiques. Les technologies de reconnaissance
des sentiments, d’analyse des images et des objets, et d’analyse du langage
naturel permettent la détection de contenus sensibles ou exclusivement destinés
à des adultes, tant dans les images que dans les audios, facilitant leur
adaptation ou leur suppression.
• Les risques de biais informationnels
C’est le réel talon d’Achille de l’Ia. Les débats que son usage suscite sont centrés autour des risques encourus. Si l’Ia générative est susceptible d’améliorer le tri, l’organisation et la personnalisation des informations, son utilisation par les journalistes sans un contrôle humain adéquat peut conduire à la diffusion d’informations biaisées ou non vérifiées, ce qui finit par éroder la confiance du public dans les médias.
Autrement
dit, l’attention du journaliste utilisateur de l’Ia est requise. Il n’en reste
pas moins qu’avec toute sa bonne volonté, il pourrait ne pas percevoir
l’ensemble des erreurs qui pourraient s’y glisser.
Il devient alors difficile de distinguer les contenus générés par l’Ia de ceux créés par l’homme, ce qui altère la confiance dans l’espace informationnel en général. Selon certaines études, les éléments de mésinformation générés par l’Ia sont plus difficiles à identifier car ils répondent à des critères de crédibilité, de transparence et d’exhaustivité, rendant ainsi la propagande ou la désinformation moins facile à détecter. En outre, les filigranes peuvent être supprimés ou modifiés, compliquant davantage la capacité à déceler de manière fiable la nature synthétique du contenu. Même lorsque les mécanismes de détection sont utilisés pour vérifier le contenu, ils peuvent être erronés, de sorte qu’il n’existe actuellement aucune méthode fiable pour déterminer sans équivoque si un contenu est généré par l’Ia. Dans ce contexte, les risques sont grands que de fausses informations soient colportées par les médias tombant ainsi dans un désordre de l’information avec ses corollaires de mésinformation, de mal-information et de désinformation. Ce qui est notable, c’est la dimension de fausseté et de préjudice associée à ce genre d’information. La technologie du deepfake facilite le processus de création de discours, de déclarations ou d’actions synthétiques attribués à des personnalités ou à des autorités publiques. A l’instar des clickbait, derrière se trouve l’idée de manipulation. La création et la diffusion de deepfake peuvent faire l’objet d’action en justice pour violation du droit de la propriété intellectuelle et du droit à la protection de la vie privée.
Le
pouvoir de règlementation du régulateur devrait permettre ex ante de prendre
les précautions nécessaires. Par exemple, l’utilisation de la technologie du
deepfake devrait s’accompagner d’un consentement clair des personnes
reproduites, et le contenu devrait être clairement étiqueté comme modifié ou
généré par l’Ia à l’image de ce qui se fait déjà avec les médias traditionnels
pour la publication des images d’autrui ou la diffusion des œuvres
cinématographiques ou artistiques.
• Les principaux droits violés
L’Ia est susceptible de préjudicier de nombreux droits qui peuvent être des droits fondamentaux de la personne (le droit à la vie privée, la liberté d’opinion et d’expression, l’égalité et la non-discrimination, le droit d’accès à l’information, la liberté de la presse, etc.) ou des droits patrimoniaux, etc. L’utilisation de l’Ia aujourd’hui ne permet pas toujours de respecter les législations en matière de droits d’auteurs, de protection des données à caractère personnel ou encore de la vie privée. Cela inclut l’utilisation de contenus protégés par les droits d’auteurs sans les mentions appropriées ou la fuite involontaire d’informations privées ou sensibles à partir de leurs données d’apprentissage, pouvant représenter un problème pour la liberté d’expression et la protection de la vie privée.
Dans
les pays africains, en l’occurrence le Bénin, le cadre juridique applicable à
l’Ia est en pleine construction. Il n’en demeure pas moins que des actions en
justice peuvent être intentées contre la violation de certains droits
particuliers.
Il
se posera alors la question du sujet responsable (le journaliste, le
développeur ou le déployeur?). La responsabilité peut être un problème
lorsqu’il s’avère laborieux d’imputer une faute s’agissant de diffusion
d’information basée sur des algorithmes, notamment en cas de diffamation. La
transparence et la crédibilité posent problème lorsque les consommateurs ne
réalisent pas ou ne peuvent réaliser que le contenu est généré par une machine,
quelles en sont les sources et dans quelle mesure l’information est vérifiée ou
même fausse. Le débat actuel à propos des « deepfakes » ou vidéos truquées en
est un exemple patent. Quant à la question des droits d’auteur, elle ne va pas
tarder à se poser à grande échelle, puisque le contenu généré par l’Ia dépend
de moins en moins des intrants humains, raison pour laquelle certains
préconisent d’attribuer une forme de responsabilité en matière de droits
d’auteur aux algorithmes eux-mêmes. Dans son rapport sur l’Ia comme bien
public, le Forum Information et Démocratie suggère que les développeurs et les
déployeurs soient tenus responsables des préjudices générés par l’Ia
(responsabilité pour non-respect des principes éthiques relatifs à la
provenance et à la curation des données et aussi responsabilité pour faute sur
la base de l’article 1382 du code civil). Mais le régulateur de contenus
devrait regarder du côté du journaliste qui met le contenu à la disposition du
public (responsabilité éditoriale). Le principe de la responsabilité en cascade
trouvera à s’appliquer.
La nécessité d’une réinvention de la régulation des médias par l’introduction de l’Ia
L’introduction de l’Ia dans l’activité journalistique fait intervenir de nouveaux acteurs avec des modes opératoires jusque-là insuffisamment maitrisés. Le régulateur des médias se retrouve donc au centre de nouvelles relations que sa mission ne saurait ignorer. En sa qualité de régulateur technique, structurel et de contenus, il doit inventer de nouveaux paradigmes pour une régulation efficace.
• L’implication du régulateur dans la mise en place de l’écosystème de l’Ia
Notre conviction profonde est que la régulation de l’IA notamment ses acteurs et les activités qu’elle mène doivent relever d’un régulateur autre que celui des contenus médiatiques. En effet, le régime juridique de l’Ia est plus proche de celui des intermédiaires techniques que des producteurs de contenus. Les équipes de conception et d’ingénierie de l’Ia (développeurs et déployeurs) n’interviennent pas dans le choix des contenus opéré par les journalistes.
Elles
veillent à protéger l’Ia contre les utilisations abusives et les attaques les
plus complexes comme l’aurait fait un hébergeur. Il leur appartient de prendre
les mesures les plus rigoureuses pour vérifier la provenance et l’authenticité
des données afin de garantir la transparence des systèmes d’Ia et leur
résistance au désordre de l’information. En outre, en ce qui concerne les
menaces les plus complexes, les développeurs sont tenus de mettre en place des
stratégies d’atténuation. Ces dernières devraient inclure des mesures visant à
accroître la difficulté et le coût des manipulations éventuelles de l’Ia
susceptibles de porter atteinte aux droits humains comme le droit à
l’information crédible, la vie privée, etc.
Dans
cet environnement dont les balises juridiques sont posées progressivement, le
régulateur des médias ne peut prendre le risque de rester à l’écart. Il s’agit
déjà d’être au fait de la révolution qui s’y mène, de maitriser les logiques
qui sous-tendent l’Ia et de mesurer son impact sur la production de
l’information. L’une des missions du régulateur est de garantir l’intégrité et
la fiabilité de l’information. A ce titre, il a l’obligation de créer des
passerelles d’échanges avec le régulateur des systèmes d’Ia (quand il sera mis
en place) ainsi que les développeurs et déployeurs d’Ia. Il s’agira, avec ces
acteurs, de veiller au respect de certaines règles non codifiées, certes, mais
qui ont été élaborées par certains acteurs et qui font autorité ou servent de
référence. Parmi ces règles figurent, entre autres, le Décret sur le
développement et l’utilisation sûrs, sécurisés et dignes de confiance de l’Ia
signé par le président des Etats-Unis Biden, la loi de l’Union Européenne sur l’Ia
(en cours de finalisation)), la Recommandation de l’Unesco sur l’éthique de
l’Ia qui comprend un chapitre expressément consacré à la communication et à
l’information, fournissant des recommandations politiques concrètes et
spécifiques au domaine, les principes d’Asilomar sur l’Ia, la Déclaration de
Windhoek sur l’Ia en Afrique Australe, le Projet de convention-cadre sur l’Ia
Droits de l’homme, démocratie et Etat de droit du Conseil de l’Europe, la
recommandation du Conseil de l’Ocde sur l’Ia, etc.
Des
principes éthiques spécifiques à chaque pays pourraient également être définis
pour traduire les valeurs sociales et juridiques, sous réserve qu’ils soient
conformes à la législation.
• L’éducation à l’Ia
Le régulateur des médias se trouve face à une matière qui n’a pas livré tous ses secrets mais qui, aujourd’hui, est de plus en plus utilisée par les journalistes. Pour éviter les dérapages éventuels, il est nécessaire de mieux connaître l’Ia, son fonctionnement et si possible les biais auxquels elle expose l’utilisateur. Pour ce faire, l’éducation à l’Ia est une approche qui, si elle est structurée, prépare les professionnels des médias à éviter certains travers.
Premièrement,
l’Ia opère comme une source d’information. Il est donc louable d’emprunter la
séculaire maxime, « source unique égale à source nulle ». Elle permettra de
confronter les informations générées par l’Ia avec d’autres sources
d’informations. En somme, l’Ia ne doit pas être considérée comme une source
infaillible d’informations. Les réflexes du journaliste seront toujours de mise
à travers les recoupements de l’information. Le journalisme demeure le maître
avec ses exigences et valeurs.
Deuxièmement,
l’on peut interpeller l’esprit critique du journaliste, une sorte de soft
skills. L’esprit critique joue un rôle crucial dans l'interaction avec
l'intelligence artificielle (Ia). Il permet d'évaluer de manière objective et
rigoureuse les résultats et les décisions issus de ces systèmes. Tout d'abord,
il aide à discerner la fiabilité des informations produites par l'Ia, en
distinguant les sources fiables des données erronées ou trompeuses. De plus, il
est essentiel pour identifier les biais et les préjugés qui peuvent être
intégrés dans les données d'entraînement de l'Ia, permettant ainsi de
questionner leur impact sur les résultats. L'esprit critique intervient
également dans l'évaluation de la pertinence des décisions prises par l'Ia, en
s'assurant qu'elles sont justes, éthiques et conformes aux normes établies. Il
aide à comprendre les limites de l'Ia, en identifiant les domaines où elle peut
être moins efficace ou précise, évitant ainsi de surestimer ses capacités. Par
ailleurs, il incite à anticiper les conséquences potentielles de l'utilisation
de l'Ia, en particulier dans des contextes sensibles. En favorisant la
réflexion sur les implications éthiques, l'esprit critique contribue à
promouvoir des normes et des réglementations visant à garantir une utilisation
responsable de cette technologie. En somme, l'esprit critique face à l'Ia permet
d'éviter une adhésion aveugle à ses résultats, assurant ainsi une utilisation
éclairée, éthique et bénéfique de cette technologie au service de la société.
L’Ia
est déjà une réalité et les gouvernants béninois ont pris la mesure des choses
à travers l’élaboration d’une stratégie nationale d’intelligence artificielle
et des mégadonnées 2023-2027. Il reste à souhaiter que l’implémentation de
cette stratégie appelle une démarche inclusive qui implique tous les acteurs
directs et indirects qui seront, d’une manière ou d’une autre, impactés par
l’utilisation de l’Ia.
Administrateur civil,
Docteur
d’Etat en droit privé
Expert
en régulation des médias et droit du numérique
e-mail
: mariusjanvier2016@gmail.com / mariusjanvierd@yahoo.fr