L’éthique de l’intelligence artificielle en Asie du Sud : défis et régulation

Introduction : Un tournant civilisationnel

L’Asie du Sud, région abritant près d’un quart de la population mondiale, est à un carrefour décisif de son histoire numérique. L’adoption de l’intelligence artificielle (IA) y est rapide et multiforme, portée par des géants technologiques comme Tata Consultancy Services en Inde, des initiatives gouvernementales ambitieuses comme Digital Bangladesh, et une jeunesse entrepreneuse dynamique à Lahore, Colombo ou Katmandou. Cependant, cette intégration fulgurante soulève des questions éthiques d’une complexité inédite, à la croisée de traditions philosophiques millénaires, de défis socio-économiques pressants et de cadres réglementaires en construction. L’éthique de l’IA dans cette région ne se limite pas à un décalque des débats occidentaux ; elle se forge dans le creuset spécifique de l’Asie du Sud, avec ses diversités linguistiques, ses inégalités structurelles et ses aspirations au développement.

Le paysage de l’IA en Asie du Sud : acteurs et initiatives

Le déploiement de l’IA dans la région est mené par une constellation d’acteurs publics et privés. L’Inde, avec sa stratégie nationale #AIForAll lancée en 2018, se positionne comme un leader. Des centres de recherche d’excellence, tels que le Indian Institute of Technology Madras (IIT Madras) et le International Institute of Information Technology Bangalore (IIIT-B), pilotent des projets avancés. Le secteur privé est animé par des entreprises comme Infosys, Wipro, et des startups innovantes telles que Niramai (dépistage du cancer du sein) et Stellapps (optimisation de la production laitière).

Au Pakistan, le gouvernement a établi en 2021 la National Center for Artificial Intelligence (NCAI) avec des bureaux dans plusieurs universités, dont la University of Engineering and Technology, Lahore. Le Bangladesh a intégré l’IA dans son plan Vision 2041 et voit émerger des acteurs comme Brain Station 23. Le Sri Lanka a formulé sa National Strategy for Artificial Intelligence en 2019, tandis que le Népal et les Maldives en sont aux phases exploratoires, souvent soutenues par des organismes internationaux comme la Banque mondiale ou l’Union internationale des télécommunications (UIT).

Des applications concrètes et transformatrices

Les applications sont déjà visibles dans plusieurs domaines critiques. En agriculture, la plateforme indienne IBM Watson Decision Platform for Agriculture aide les fermiers du Pendjab et du Rajasthan. Dans la santé, Qure.ai (basé à Mumbai) utilise l’IA pour interpréter des radios pulmonaires et des scanners cérébraux, déployé dans des hôpitaux du Bangladesh et du Pakistan. Les services financiers sont révolutionnés par la fintech bKash au Bangladesh et par les systèmes de scoring de crédit alternatifs utilisés par Paytm en Inde. Les villes intelligentes, comme Surat ou New Town Kolkata, intègrent l’IA pour la gestion du trafic et des services publics.

Les défis éthiques spécifiques au contexte sud-asiatique

L’enthousiasme pour la transformation numérique se heurte à des réalités socio-culturelles et économiques qui donnent une coloration unique aux défis éthiques.

Les biais algorithmiques et les fractures sociales

Les ensembles de données d’entraînement reflètent souvent les préjugés existants. Un algorithme de recrutement formé sur les données de grandes métropoles comme Bangalore ou Hyderabad pourrait défavoriser les candidats de régions périphériques comme le Bihar ou l’Assam, ou ceux appartenant à des castes ou des groupes ethniques marginalisés. Les systèmes de reconnaissance faciale peinent à identifier avec précision les visages des populations de l’Inde du Nord-Est ou du Sri Lanka, car entraînés majoritairement sur des visages caucasiens ou ouest-asiatiques. Ce biais technologique renforce les fractures sociales historiques.

La surveillance de masse et la vie privée

Plusieurs gouvernements de la région déploient des technologies de surveillance à base d’IA à grande échelle. L’Inde a mis en place le système RISAT (Radar Imaging Satellite) et des projets comme Domain Awareness System (DAS). Le Pakistan utilise une technologie de reconnaissance faciale aux points de contrôle frontaliers et dans les villes comme Karachi. Ces initiatives, justifiées par des impératifs de sécurité nationale et de lutte contre le terrorisme, posent des questions cruciales sur l’équilibre entre sécurité et droits individuels, dans des régimes démocratiques où les cadres de protection des données sont encore jeunes, comme le Personal Data Protection Bill indien.

L’impact sur l’emploi et la justice économique

L’automatisation menace des millions d’emplois dans les secteurs à forte intensité de main-d’œuvre, comme l’industrie textile au Bangladesh (4 millions de travailleurs), les centres d’appels au Sri Lanka, ou l’agriculture de subsistance partout dans la région. L’éthique de l’IA doit intégrer des stratégies de transition juste, de reconversion et de protection sociale, pour éviter d’exacerber les inégalités déjà criantes, comme le montre le coefficient de Gini élevé dans des pays comme le Népal et l’Inde.

Les cadres réglementaires et politiques en émergence

Face à ces défis, les pays sud-asiatiques tentent de construire des réponses réglementaires, avec des approches et des vitesses différentes.

Pays Initiative/Stratégie Principale Année Principes Clés Mis en Avant Organisme Responsable
Inde Stratégie Nationale pour l’IA #AIForAll 2018 Inclusion, Croissance, Confiance & Sécurité NITI Aayog
Pakistan Politique Nationale sur l’IA (projet) 2023 Développement responsable, Innovation, Souveraineté Ministère de l’IT & des Télécoms
Sri Lanka Stratégie Nationale pour l’IA 2019 Durabilité, Bien-être social, Compétitivité Autorité de l’Information & de la Communication
Bangladesh Politique sur l’IA dans le cadre de Digital Bangladesh 2020 Accessibilité, Équité, Développement des compétences Division de l’Accès à l’Information
Népal Rapport d’Évaluation de Préparation à l’IA (avec l’UIT) 2021 Renforcement des capacités, Infrastructure, Éthique Autorité des Télécommunications du Népal

Ces cadres s’inspirent souvent de principes globaux comme ceux de l’OCDE ou de l’UNESCO (qui a adopté en 2021 la Recommandation sur l’éthique de l’IA), mais peinent à se traduire en lois contraignantes. L’Inde travaille sur un cadre de gouvernance de l’IA plus détaillé, tandis que le Bangladesh envisage une loi spécifique sur la protection des données.

Les dimensions culturelles et philosophiques

L’éthique de l’IA en Asie du Sud ne peut être dissociée de ses fondements philosophiques et religieux. Les concepts de Dharma (devoir, ordre moral) dans l’hindouisme et le bouddhisme, de Maqasid al-Shariah (objectifs supérieurs de la loi islamique) au Pakistan et au Bangladesh, ou de Karuna (compassion) dans le bouddhisme théravada au Sri Lanka, offrent des ressources pour penser une IA responsable et au service du bien commun. Des intellectuels comme le prix Nobel Amartya Sen, avec son approche des « capabilités », ou des organisations comme le Centre for Internet and Society à Bangalore, plaident pour une IA qui renforce la justice sociale et l’autonomie des individus, plutôt que de les diminuer.

Le multilinguisme et l’inclusion numérique

Avec des centaines de langues vivantes (le bengali, l’hindi, l’ourdou, le tamoul, le népali, le cingalais, le divehi, etc.), le développement d’IA inclusives passe par le traitement du langage naturel (NLP) dans les langues locales. Des projets comme AI4Bharat (initiative du gouvernement indien) ou les efforts de Google Research India sur le hindi et le bengali sont cruciaux. L’exclusion linguistique dans l’IA créerait une nouvelle forme d’analphabétisme numérique, marginalisant des populations entières.

Les études de cas : succès et controverses

Succès : L’IA pour la santé publique au Bangladesh

L’ONG BRAC, en partenariat avec Maya (une application de santé), utilise un chatbot alimenté par l’IA pour fournir des informations sur la santé reproductive à des millions de femmes dans les zones rurales du Bangladesh. Ce système, respectueux de l’anonymat et accessible via des téléphones basiques, a amélioré l’accès à des connaissances vitales, démontrant le potentiel de l’IA pour atteindre les populations les plus vulnérables.

Controverse : Le système Aadhaar et la surveillance en Inde

Le programme biométrique Aadhaar, la plus grande base de données d’identité numérique au monde (plus de 1,3 milliard d’inscrits), est au cœur d’un débat éthique majeur. Bien qu’il ait rationalisé l’accès aux services sociaux, son couplage avec des systèmes d’IA pour le ciblage des aides ou la surveillance par les forces de l’ordre soulève des craintes de surveillance omniprésente et de violation de la vie privée. La Cour suprême indienne, dans l’arrêt historique Justice K.S. Puttaswamy (Retd.) vs Union Of India (2017), a reconnu le droit à la vie privée comme un droit fondamental, imposant des limites à l’utilisation d’Aadhaar.

Controverse : Les deepfakes et la désinformation au Pakistan

Lors des élections de 2024 au Pakistan, des vidéos deepfake de politiciens, notamment de l’ancien Premier ministre Imran Khan (alors emprisonné), ont circulé largement sur les réseaux sociaux. Ces manipulations sophistiquées, rendues possibles par l’IA, ont semé la confusion et mis en lumière l’urgence de développer des capacités de vérification des médias et une régulation adaptée pour préserver l’intégrité du débat démocratique.

La coopération régionale et internationale

Aucun pays sud-asiatique ne peut réguler les défis transfrontaliers de l’IA seul. Des plateformes comme l’Association sud-asiatique pour la coopération régionale (ASACR/SAARC) pourraient jouer un rôle, bien que leur efficacité soit limitée par les tensions politiques. Des collaborations bilatérales, comme celle entre l’Inde et le Japon sur l’IA, ou la participation à des forums globaux comme le Partenariat mondial sur l’intelligence artificielle (GPAI), sont essentielles. La Banque asiatique de développement finance également des projets d’IA éthique dans la région, notamment dans le secteur agricole.

La nécessité de partager les meilleures pratiques, d’harmoniser les normes techniques (avec des organismes comme le Bureau of Indian Standards), et de créer des mécanismes de gouvernance des données transfrontalières est de plus en plus pressante, notamment pour des applications dans la gestion des bassins fluviaux comme celui du Gange et du Brahmapoutre.

L’avenir : Vers une IA sud-asiatique responsable

L’avenir de l’IA éthique en Asie du Sud dépendra de plusieurs facteurs clés. Premièrement, le renforcement des capacités de recherche indépendante en éthique de l’IA dans des institutions comme l’Indian Institute of Management Bangalore ou l’Université de Dhaka. Deuxièmement, l’émergence d’une société civile numérique vigilante, avec des organisations comme la Internet Freedom Foundation en Inde ou Digital Rights Foundation au Pakistan. Troisièmement, l’engagement du secteur privé à adopter des cadres d’audit éthique, inspirés par exemple des travaux de l’Institute for Ethical AI & Machine Learning.

Les modèles économiques doivent également évoluer. Au lieu d’une course à l’extraction de données à moindre coût, l’accent devrait être mis sur le développement d’IA « frugales » et durables, adaptées aux contraintes locales, comme le fait la startup CropIn en Inde. Enfin, l’éducation aux médias et à l’IA, intégrée dans les programmes scolaires du Kerala à la Province centrale du Sri Lanka, est fondamentale pour créer une citoyenneté informée et critique.

FAQ

Quels sont les principaux risques de l’IA pour les démocraties d’Asie du Sud ?

Les risques majeurs incluent la manipulation de l’opinion publique via les deepfakes et les bots sur les plateformes comme Facebook et WhatsApp, la surveillance étatique excessive menaçant les libertés civiles, le renforcement algorithmique des clivages ethniques ou religieux (comme observé au Myanmar voisin), et l’opacité des processus décisionnels automatisés utilisés par les gouvernements, qui sape la redevabilité démocratique.

Existe-t-il des traditions éthiques sud-asiatiques influençant le débat sur l’IA ?

Absolument. La philosophie indienne du Nyaya (logique et justice) informe les discussions sur l’équité algorithmique. Le concept bouddhistique de Pratityasamutpada (interdépendance) met en lumière l’interconnexion des systèmes et des données. Dans les pays à majorité musulmane comme le Pakistan et le Bangladesh, les principes islamiques de Maslaha (intérêt public) et de Ihsan (bienfaisance) sont invoqués pour exiger que l’IA serve le bien commun et ne cause pas de préjudice.

Comment les agriculteurs sud-asiatiques sont-ils impactés par l’IA ?

L’IA offre des opportunités (prévisions météo précises, diagnostic des maladies des cultures via des apps comme Plantix, optimisation de l’irrigation) mais aussi des menaces. L’automatisation dans la récolte ou le tri pourrait réduire les emplois saisonniers. De plus, les modèles d’IA conçus pour l’agriculture industrielle peuvent ne pas correspondre aux pratiques agroécologiques traditionnelles. L’enjeu est de co-concevoir des outils avec les agriculteurs, comme le fait l’organisation Digital Green en Inde et en Éthiopie.

Quel rôle jouent les grandes entreprises technologiques internationales dans la région ?

Les entreprises comme Google, Microsoft, Amazon Web Services et Meta ont une influence considérable. Elles investissent dans les infrastructures cloud (Google Cloud Region à Delhi), forment des développeurs (initiative Microsoft AI for Good), et proposent leurs services d’IA. Cela pose des questions de dépendance technologique, de souveraineté des données (où sont stockées les données sensibles ?), et d’application de normes éthiques conçues ailleurs, parfois inadaptées au contexte local.

Que peuvent faire les citoyens ordinaires pour promouvoir une IA éthique ?

Les citoyens peuvent : 1) S’éduquer sur les bases de l’IA et ses impacts via des ressources en langues locales. 2) Exiger la transparence des institutions utilisant des systèmes automatisés les concernant (banques, administrations). 3) Soutenir les organisations de la société civile défendant les droits numériques. 4) Être critiques face à l’information en ligne, vérifier les sources pour lutter contre les deepfakes. 5) Participer aux consultations publiques lors de l’élaboration de lois sur l’IA et la protection des données.

ÉDITÉ PAR L’ÉQUIPE RÉDACTIONNELLE

Ce rapport de renseignement est rédigé et produit par Intelligence Equalization. Il est vérifié par notre équipe mondiale sous la supervision de partenaires de recherche japonais et américains.

PHASE TERMINÉE

L’analyse continue.

Votre cerveau est maintenant dans un état hautement synchronisé. Passez au niveau suivant.

CLOSE TOP AD
CLOSE BOTTOM AD