Parmi les nombreux side-events du jour zéro de la
conférence internationale « Internet For Trust » (
pour un Internet de confiance) , l’Assistante à la Directrice Générale pour le
secteur Sciences Humaines et Sociales de l’Unesco Madame Gabriela Ramos présidait
une table ronde sur l’utilisation de la « Recommandation sur l’éthique de
l’intelligence artificielle » pour faire progresser la gouvernance
de l’ intelligence artificielle à travers le monde , puis l’Assistante
à la Directrice Générale pour le secteur Education Madame Stefania Gianini
présidait celle sur le rôle de l’éducation face à la diffusion des
discours de haine, impliquant aussi L’ADG pour le secteur Communication et
Information, Tawfik Jelassi. Cette conférence internationale
« Internet fort Trust » rassemblait en trois journées (21-23 février)
4000 participants : gouvernants, représentants d’entreprises digitales,
d’organes indépendants de régulation, universitaires, journalistes, youtubeurs,
représentants de la société civile, autour d’un projet de « Principes de régulation des
plates-formes numériques : une approche multipartite pour sauvegarder la
liberté d’expression et d’accès à l’information comme bien commun ».
Sur ce sujet d’actualité – à plusieurs reprises il
a été fait allusion à l’innovation récente et « disruptive » de Chat GPT-
les échanges ont été très intéressants avec notamment la mise en
évidence des risques voire des dangers que peuvent générer ces applications de
plus en plus présentes dans l’univers internet- en particulier par la diffusion
de discours de haine et la propagation de fake news- et des conditions dans
lesquelles en développer un bon usage.
On reprend ci-après les idées émises par une
dizaine d’experts venant d’horizons géographiques et professionnels très
diversifiés.
Sans disconvenir des résultats très positifs que
peuvent dégager ces nouveaux systèmes très « intelligemment »
automatisés, les intervenants , peut être plus que d’ordinaire dans ce
type d’évènements, ont souligné les risques que peuvent
générer les applications ayant recours à l’IA, des risques qui
sont à la mesure des performances de plus en plus spectaculaires de ces
systèmes, et dont on perçoit déjà des conséquences notables.
Les orateurs ont à juste titre insisté sur les aspects
concrets des problèmes que pose l’IA dans son implication dans internet,
à raison de son emprise grandissante sur les modes de vie et de travail dans
nos sociétés.
Il faut s’intéresser au sujet à tous les
niveaux et tout au long des processus IA permettant
les dialogues « mécaniques » « Homme-Machine » depuis
leur conception jusqu’à leur déploiement et leur usage. L’attention
particulière qu’il faut leur porter doit privilégier l’analyse de deux
paramètres essentiels pour une bonne compréhension des résultats
que dégagent l’interaction « utilisateur-système »
gouvernée par l’IA à savoir : l’explicabilité
et la transparence.
Par ailleurs comme l’IA se nourrit de Big Data,
force est de reconnaitre que celles issues de certaines régions comme l’Afrique
sont sous-représentées, ce qui induit un biais dans les résultats. De même
comment l’IA peut-elle refléter des valeurs quand celles-ci sont
essentiellement transmises par oral, donc ne laissent pas de traces sur les
bases de données utilisées par l’IA ?
Pour éviter toute méprise (d’interprétation)
et bien avoir conscience des propositions que génèrent les
applications d’IA, il faut en effet comprendre
« comment elles marchent » et « apprécier la qualité de
leurs réponses aux questions que -plus ou moins bien – leurs soumettent les
utilisateurs.
Mais avant même le respect de ces règles
comportementales pour un bon usage, il est hautement souhaitable
de vérifier si un certain nombre de prérequis éthiques sont
bien remplis avant la diffusion de ces processus automatisés, et, pour ce
faire, il est indispensable de bien tester les applications préalablement
à leur mise sur le marché, et le faire très concrètement, dans un
espace restreint et sécurisé, non pas sur la base de vagues idées générales.
L’important est à voir sous l’angle des
impacts qu’il faut savoir bien mesurer et apprécier tout
particulièrement lorsqu’ils touchent à l’Humain qui doit
être préservé, protégé et, pour tout dire, rester au centre des préoccupations
des développeurs de ces applications ; ce qui compte, alors, est de
trouver des réponses proportionnées pour une juste prise en
compte de critères essentiels qui caractérisent la personne comme ceux
touchant à la liberté, à la justice, la sécurité ou la vérité (à
voir avec les questions touchant aux données et à l’information)
Cela étant précisé, l’IA , comme
tout ce qui structure le monde numérique, ne peut se concevoir indépendamment d’un
cadre juridique suffisamment protecteur pour éviter les abus
et les exploitations malveillantes de ces techniques. A cet égard,
beaucoup de pays ont déjà pris des initiatives législatives, qu’il
s’agisse des plus avancés ( cf l’Union européenne ou les
Etats-Unis) ou d’autres moins engagés dans la production d’IA mais
susceptibles d’être affectés par elle dans les usages (ici, un
représentant de la Namibie a présenté ce qui a déjà été fait
dans son pays avec parfois des initiatives s’inscrivant dans un cadre porté par
l’Union Africaine).
L’éducation est reconnue comme un des moyens
efficaces de combattre la diffusion des discours de haine, l’Unesco y travaille
concrètement par plusieurs initiatives.
Il est proposé d’éduquer les jeunes en particulier
les 12-15 ans -l’âge où se développent leurs « pratiques
numériques »- en leur donnant un socle de base qui leur soit utile à la
vie en général, à une vie citoyenne, et pas seulement à visée
professionnalisante. Savoir s’informer, détecter la désinformation, c’est
l’objet des nécessaires formations aux médias et à l’information. Le rôle
d’internet dans le cyberharcèlement et le harcèlement scolaire en particulier
est indéniable, il est donc nécessaire de sensibiliser les jeunes à tout ce que
cela implique. Former à l’esprit critique a plus que jamais
une importance majeure. Un intervenant a par ailleurs très pertinemment
souligné la grande vulnérabilité des seniors face à la désinformation ou autres
manipulations véhiculées par les médias et internet.
Pour une plus grande efficacité des
contrôles, il est
souhaitable que les mesures adoptées ou envisagées s’inspirent de stratégies
donnant les lignes directrices permettant d’assurer une élaboration
cohérente des instruments juridiques ou des instances de surveillance sans
excès de lourdeur : il ne faut pas prendre d’orientations qui
soient nuisibles aux innovations, ce point a été rappelé à plusieurs
reprises.
C’est bien à une approche multipartite concertée
et mondiale qu’il faut travailler, et c’est l’objet des deux journées suivantes
de la conférence mondiale Internet for Trust (22, 23 février2023 à l’UNESCO)
- Voir le
communiqué de presse et vidéos associées des deux journées suivantes :
- Voir le
replay de la session inaugurale du 22 février:
Nessun commento:
Posta un commento