0% ont trouvé ce document utile (0 vote)
49 vues64 pages

Éthique Et Déontologie de L'informatique UCB

Télécharger au format pptx, pdf ou txt
Télécharger au format pptx, pdf ou txt
Télécharger au format pptx, pdf ou txt
Vous êtes sur la page 1/ 64

Éthique et Déontologie

de l'Informatique
Par Abel Mugaruka Shabani
Chapitre 1 : Les
fondements de
l’éthique
1.1 Qu’est-ce que l’éthique ?
1.1 Qu’est-ce que l’éthique ?
• L'éthique est l'étude des principes moraux qui guident nos actions.
Elle nous aide à déterminer ce qui est juste et injuste, bon et mauvais.
• Éthique descriptive: Elle décrit les valeurs et les normes morales
d'une société donnée.
• Éthique normative: Elle cherche à établir des principes universels
pour guider la conduite humaine.
Les principales théories éthiques
normatives leurs applications dans
le numérique
a. L'utilitarisme
• Principe: Une action est bonne si elle maximise le bonheur du plus grand
nombre.
• Application dans le numérique:
• Optimisation des algorithmes: Les moteurs de recherche et les réseaux sociaux
utilisent des algorithmes pour maximiser l'engagement des utilisateurs. Cependant,
cela peut parfois conduire à la promotion de contenus polarisants ou à la création de
"bulles filtrantes".
• Développement de produits: Les entreprises technologiques cherchent à développer
des produits qui répondent aux besoins et aux désirs des consommateurs, mais cela
peut parfois mener à la création d'addictions.
• Exemple: Un algorithme de recommandation de films pourrait être optimisé
pour maximiser le plaisir des utilisateurs, mais au risque de promouvoir des
contenus stéréotypés ou violents.
b. La déontologie
• Principe: Certaines actions sont intrinsèquement bonnes ou
mauvaises, indépendamment de leurs conséquences.
• Application dans le numérique:
• Respect de la vie privée: La déontologie nous rappelle que les données
personnelles sont sacrées et doivent être protégées.
• Honnêteté dans la publicité en ligne: La publicité trompeuse ou mensongère
est considérée comme contraire à l'éthique.
• Exemple. Un développeur pourrait refuser de créer une application
de surveillance invasive, même si elle est légalement autorisée, en
invoquant le respect de la vie privée.
c. L'éthique des vertus
• Principe: Le bien est lié au développement des qualités morales de
l'individu (integrité, courage, justice, etc.).
• Application dans le numérique:
• Responsabilité sociale: Les développeurs de logiciels ont la responsabilité de
créer des produits qui ont un impact positif sur la société.
• Intégrité: Les professionnels du numérique doivent agir avec honnêteté et
intégrité dans leurs activités.
• Exemple: Imaginons un ingénieur travaillant sur le développement d'un
nouveau logiciel. Son entreprise lui demande de raccourcir les délais de
développement, ce qui impliquerait de sacrifier certaines phases de test,
augmentant ainsi le risque de bugs. Il pourrait chercher des solutions
alternatives pour respecter les délais sans sacrifier la qualité.
d. L'éthique du contrat social
• Principe: Les individus vivent en société en vertu d'un contrat
implicite qui définit leurs droits et leurs devoirs.
• Application dans le numérique:
• Conditions générales d'utilisation: Les contrats sociaux numériques
définissent les relations entre les utilisateurs et les plateformes.
• Gouvernance de l'internet: Les débats sur la neutralité du net et la régulation
des géants du numérique touchent à la question du contrat social numérique.
• Exemple: Lorsqu'on crée un compte sur une plateforme comme
Facebook ou Twitter, on accepte implicitement les conditions
d'utilisation. Ces conditions représentent une sorte de contrat social
numérique.
1.2 Les niveaux de l'éthique
1.2 Les niveaux de l'éthique
L'éthique se manifeste à différents niveaux :
• Éthique personnelle: Les valeurs et les croyances individuelles qui
guident nos choix quotidiens.
• Illustration : Imaginez un développeur qui découvre une vulnérabilité critique
dans une application qu'il utilise personnellement. Il doit décider s'il signale la
faille pour protéger d'autres utilisateurs ou s'il l'exploite à son propre
avantage. Son choix est guidé par ses valeurs personnelles : intégrité,
honnêteté, responsabilité.
1.2 Les niveaux de l'éthique
(Suite)
L'éthique se manifeste à différents niveaux :
• Éthique professionnelle: Les codes de conduite spécifiques à chaque
profession (médecins, avocats, ingénieurs, etc.).
• Illustration : Un ingénieur en cybersécurité reçoit une offre lucrative pour
travailler sur un logiciel qui pourrait être utilisé à des fins malveillantes. Bien
que cela ne soit pas illégal, il décide de refuser l'offre en raison des
implications éthiques pour la société.
1.2 Les niveaux de l'éthique
(Fin)
L'éthique se manifeste à différents niveaux :
• Éthique sociale: Les questions morales qui concernent la société dans
son ensemble (justice sociale, environnement, etc.).
• Illustration: Lors de la conception d’une plateforme numérique, une
entreprise décide d’inclure des fonctionnalités d’accessibilité pour les
personnes en situation de handicap. Ce choix va au-delà des obligations
légales, s’inscrivant dans une éthique sociale d’inclusion et de justice.
1.3 Dilemmes éthiques et prise
de décision
1.3 Dilemmes éthiques et prise
de décision
• Un dilemme éthique survient lorsqu'il faut choisir entre plusieurs
options, chacune ayant des conséquences morales potentiellement
négatives. Typologie des dilemmes:
• Vérité vs. loyauté: Doit-on toujours dire la vérité, même si cela peut nuire à
quelqu'un ?
• Justice vs. compassion: Doit-on appliquer strictement les règles, même si cela
conduit à une injustice individuelle ?
• Intérêts individuels vs. bien commun: Comment concilier nos intérêts
personnels avec le bien-être de la société ?
Exemple de dilemmes éthiques
Vérité : Un ingénieur découvre une vulnérabilité critique dans un
logiciel qu'il a développé. Il doit choisir entre informer son employeur
et risquer de perdre son emploi, ou garder le silence et potentiellement
mettre en danger des utilisateurs.
Loyauté : Un data scientist travaille pour une entreprise qui utilise des
données personnelles à des fins publicitaires sans le consentement des
utilisateurs. Il doit choisir entre dénoncer cette pratique à l'intérieur de
l'entreprise ou à l'extérieur.
Justice : Un algorithme de recrutement favorise les candidats ayant
fréquenté certaines universités, renforçant ainsi les inégalités sociales.
Méthodes de résolution
1. La méthode des trois
questions fondamentales
• Quelles sont les options ? : Identifier toutes les options disponibles
dans la situation.
• Quels sont les impacts de chaque option ? : Analyser les
conséquences positives et négatives de chaque option sur les parties
prenantes.
• Quelle option respecte le mieux les principes éthiques
fondamentaux ? : Choisir l’option qui s’aligne le plus avec les valeurs
morales telles que l’honnêteté, la justice, la bienveillance, etc.
2. La méthode de la balance des
conséquences (Approche utilitariste)
• Cette méthode consiste à choisir l'option qui maximise le bien-être
collectif et minimise les préjudices. Elle évalue le rapport entre les
bénéfices et les coûts de chaque option.
• Étapes :
1. Lister les conséquences positives et négatives pour toutes les parties
concernées.
2. Évaluer la gravité ou l'importance de chaque conséquence.
3. Choisir l’option qui produit le plus grand bien pour le plus grand nombre.
3. La méthode de la règle d’or
(Approche déontologique) :
• Cette méthode s’appuie sur le principe de traiter les autres comme on
voudrait être traité soi-même.
• Étapes :
1. Identifier les règles éthiques ou les principes en jeu.
2. Se demander si l’action respectera ces règles, même si cela signifie sacrifier
certains avantages personnels ou collectifs.
3. Prendre la décision qui est en accord avec les principes éthiques,
indépendamment des conséquences.
4. La méthode des quatre quadrants
(Approche pragmatique) :
• Cette méthode propose de diviser l’analyse en quatre aspects : les
faits, les principes, les alternatives, et les parties prenantes.
• Étapes :
1. Faits : Quelles sont les données objectives sur la situation ?
2. Principes : Quels sont les principes éthiques impliqués (confidentialité,
justice, transparence, etc.) ?
3. Alternatives : Quelles sont les différentes actions possibles ?
4. Parties prenantes : Qui est affecté par chaque option et comment ?
5. La méthode de la discussion
collective (Approche éthique
participative) :
• Cette méthode encourage une délibération collective pour arriver à
une solution partagée.
• Étapes :
1. Réunir toutes les parties concernées par le dilemme.
2. Discuter ouvertement des enjeux, des valeurs et des conséquences de
chaque option.
3. Arriver à un consensus sur l’action à entreprendre, en tenant compte des
points de vue divergents.
6. La méthode des cas similaires
(Approche par précédents) :
• Cette méthode consiste à examiner des cas passés similaires pour voir
comment ils ont été résolus et s'en inspirer pour prendre une
décision.
• Étapes :
1. Rechercher des situations similaires déjà survenues.
2. Analyser comment elles ont été gérées et les conséquences des décisions
prises.
3. Appliquer les enseignements de ces cas à la situation actuelle.
Application de ces méthodes :
Pour chaque dilemme éthique, l'utilisation d'une ou plusieurs de ces
méthodes permet de structurer la réflexion et de prendre une décision
raisonnée qui prend en compte à la fois les valeurs morales, les
conséquences, et les responsabilités envers les différentes parties
concernées.
1.4 L'éthique dans le domaine
numérique
1.4 L'éthique dans le domaine
numérique
Le développement rapide des technologies numériques pose de nouveaux défis
éthiques :
• Vie privée: La collecte massive de données personnelles soulève des
questions sur le droit à l'oubli et la surveillance.
• Biais algorithmiques: Les algorithmes peuvent reproduire et amplifier les biais
présents dans les données d'entraînement, conduisant à des discriminations.
• Transparence et explicabilité: Il est essentiel de rendre les algorithmes
compréhensibles pour permettre aux utilisateurs de comprendre les décisions
qui les concernent.
• Responsabilité: Qui est responsable en cas de dommages causés par une
intelligence artificielle ?
Exemples :
• Cambridge Analytica: L'utilisation abusive des données Facebook pour
influencer les élections a mis en lumière les risques liés à la collecte et
à l'utilisation des données personnelles.
• Les voitures autonomes: Un véhicule autonome provoque un accident
mortel. Qui est responsable ? Le conducteur, le fabricant, ou
l'algorithme ?
• Les deepfakes: La création de fausses vidéos hyperréalistes soulève des
questions sur la manipulation de l'information et la confiance en ligne.
• Biais algorithmiques: Un algorithme de reconnaissance faciale qui a
plus de difficultés à identifier les personnes de couleur.
Éthique de la robotique
Les Trois Lois de la Robotique d'Isaac Asimov
1.Première Loi : « Un robot ne doit pas blesser un être humain ou, par
son inaction, permettre qu'un être humain soit blessé. »
2.Deuxième Loi : « Un robot doit obéir aux ordres donnés par des êtres
humains, sauf lorsque ces ordres entrent en conflit avec la Première
Loi. »
3.Troisième Loi : « Un robot doit protéger sa propre existence tant que
cette protection n'entre pas en conflit avec la Première ou la
Deuxième Loi. »
Chapitre 2 : Les enjeux
spécifiques de l'éthique
numérique
2.1 Protection des données
personnelles
Concept clé 1: Anonymisation
• Définition: Processus qui rend les données non identifiables pour
protéger la vie privée des individus. Les données anonymisées ne
peuvent pas être reliées à une personne spécifique, ce qui réduit le
risque de violation de la vie privée.
• Exemple : Suppression des identifiants personnels dans une base de
données de recherche.
Concept clé 2:
Pseudonymisation
• Définition: Technique de protection qui remplace les informations
personnelles par des pseudonymes. Contrairement à l’anonymisation,
les données pseudonymisées peuvent être réidentifiées si les
informations supplémentaires sont disponibles.
• Exemple : Utilisation d’identifiants alphanumériques pour remplacer
les noms dans une étude médicale.
Concept clé 3: Consentement
éclairé
• Définition: Processus par lequel les individus donnent leur
autorisation explicite pour la collecte et l’utilisation de leurs données,
en étant pleinement informés des objectifs, des risques et des usages
des données.
• Exemple : Accords de confidentialité pour les applications mobiles
expliquant comment les données des utilisateurs seront utilisées.
Réglementations
• RGPD (Règlement Général sur la Protection des Données) : Texte
européen de référence qui impose des obligations strictes aux
entreprises en matière de collecte, de traitement et de conservation
des données personnelles.
• Code Numérique de la RDC : La législation nationale de la RDC qui
encadre spécifiquement l'utilisation du numérique et les données
personnelles au sein du pays.
Enjeux :
• Surveillance de masse : Collecte systématique et généralisée de
données personnelles, souvent à des fins de contrôle social.
• Exemple : surveillance des communications par les gouvernements.
• Profilage : Création de profils individuels détaillés à partir de l'analyse
de grandes quantités de données.
• Exemple : ciblage publicitaire en ligne.
• Discrimination algorithmique : Prise de décisions automatisées qui
pénalisent certains groupes de personnes en raison de biais présents
dans les algorithmes.
• Exemple : refus de crédit à des personnes appartenant à certaines catégories
sociales.
Questions à approfondir
• Comment assurer l'anonymisation et la pseudonymisation de manière
efficace et durable ?
• Quels sont les défis liés à l'obtention d'un consentement éclairé dans
le contexte numérique ?
• Comment prévenir et combattre la surveillance de masse ?
• Comment garantir l'équité et la non-discrimination dans l'utilisation
des algorithmes ?
2.2 Intelligence artificielle et
éthique
Biais algorithmiques
• Nature : Préjugés intégrés dans les algorithmes en raison de données
biaisées, de méthodes de conception ou de préjugés des développeurs.
• Causes : Données historiques biaisées, représentations inexactes dans
les ensembles de données, et absence de diversité dans les équipes de
développement.
• Conséquences : Décisions injustes et inéquitables dans des domaines
critiques comme le recrutement, la justice pénale, et les services
financiers.
• Exemple : Un algorithme de recrutement qui favorise certains groupes
ethniques en raison de données historiques biaisées.
Responsabilité
• Qui est responsable en cas de dommage causé par une IA ? :
Déterminer la responsabilité en cas de préjudice causé par une IA
peut impliquer plusieurs parties : les développeurs, les utilisateurs, ou
les fabricants.
• Exemple : En cas d’accident causé par un véhicule autonome, la
responsabilité pourrait incomber au fabricant du véhicule, au
développeur de l’IA, ou à l’utilisateur.
Applications de l'IA :
Enjeux éthiques spécifiques :
• Santé : Utilisation de l'IA pour diagnostiquer ou recommander des
traitements peut soulever des questions sur la qualité des soins, la
confidentialité des données, et l’automatisation des décisions
médicales.
• Justice : Algorithmes utilisés pour prédire la récidive ou déterminer
les peines peuvent introduire des biais et affecter la justice équitable.
• Autres domaines : Les enjeux éthiques peuvent inclure la protection
des droits humains, l’impact sur l’emploi, et la transparence des
décisions algorithmiques.
Questions à approfondir
• Comment détecter et corriger les biais algorithmiques ?
• Quel cadre juridique mettre en place pour réguler le développement
et l'utilisation de l'IA ?
• Comment garantir la transparence et l'explicabilité des décisions
prises par les algorithmes ?
2.3 Propriété intellectuelle dans
le numérique
Droits d'auteur :
• Protection des œuvres de l'esprit : Les droits d'auteur protègent les
créations originales telles que les textes, les musiques, les logiciels et
les œuvres artistiques contre l'utilisation non autorisée.
• Exemple : Une application mobile qui incorpore du code ou des
graphismes protégés par des droits d'auteur sans autorisation
enfreint la loi.
Brevets :
• Protection des inventions : Les brevets confèrent aux inventeurs des
droits exclusifs sur leurs inventions pour une période déterminée, afin
de protéger l'innovation et encourager la recherche.
• Exemple : Un algorithme unique pour améliorer le traitement des
données peut être breveté pour éviter que d'autres ne l'utilisent sans
autorisation.
• Enjeux : Coûts élevés, durée limitée, possibilité de freiner
l'innovation.
Logiciels libres :
• Concepts : Les logiciels libres sont distribués avec des licences qui
permettent leur utilisation, modification et redistribution. Ils
promeuvent la collaboration et l’accessibilité.
• Exemple : Le système d'exploitation Linux est un exemple de logiciel
libre qui permet aux développeurs de contribuer et d'adapter le code.
• Enjeux : Promotion de la collaboration, réduction des coûts,
dépendance vis-à-vis des fournisseurs.
Piratage
• Causes : Coûts élevés des produits culturels, difficulté d'accès à
certaines œuvres, facilité de copie numérique.
• Conséquences : Perte de revenus pour les créateurs, développement
d'un marché parallèle illégal.
Questions à approfondir
• Comment adapter le droit d'auteur à l'ère du numérique ?
• Quels sont les enjeux liés à la brevetabilité des logiciels et des
inventions liées à l'intelligence artificielle ?
• Comment promouvoir les logiciels libres tout en assurant leur
pérennité ?
• Quelles sont les solutions pour lutter contre le piratage ?
Chapitre 3 : Impacts sociaux et
perspectives d'avenir
3.1 Impacts sociaux du
numérique
3.1.1 Enjeux éthiques liés à la
fracture numérique
1. Qu'est-ce que la fracture numérique ?
La fracture numérique désigne l'écart entre ceux qui ont accès aux
technologies de l'information et de la communication (TIC) et ceux qui en sont
exclus. Cette fracture peut se manifester à plusieurs niveaux :
• Accès matériel : Inégalités dans l’accès aux équipements technologiques
comme les ordinateurs, smartphones, ou connexions internet.
• Compétences numériques : Disparités dans la capacité à utiliser
efficacement les technologies.
• Usage des services numériques : Différences dans l’accès à des services
essentiels comme l’éducation en ligne, les soins de santé numériques, ou les
services financiers électroniques.
3.1.1 Enjeux éthiques liés à la
fracture numérique (Suite)
2. Les sources de la fracture numérique
Les inégalités numériques peuvent découler de plusieurs facteurs :
• Facteurs économiques : Le coût élevé des équipements et des services internet
reste un obstacle pour de nombreuses populations, surtout dans les pays en
développement ou pour les groupes défavorisés dans les pays industrialisés.
• Facteurs géographiques : Les zones rurales ou isolées sont souvent moins
desservies par les infrastructures numériques, entraînant un accès limité à
internet.
• Facteurs socioculturels : Le manque d’éducation, les préjugés contre les
technologies ou l’analphabétisme numérique limitent l’adoption des TIC dans
certaines communautés.
3.1.1 Enjeux éthiques liés à la
fracture numérique (Suite)
3. Les enjeux éthiques liés à la fracture numérique
• Inégalités d'accès à l'information et aux services essentiels :Accès limité à l'éducation, créant
un cercle vicieux de pauvreté et d'exclusion. Accès restreint aux soins de santé numériques,
privant certaines populations de services médicaux. Exclusion des services publics et financiers
pour les non-connectés.
• Accentuation des inégalités sociales :Écart croissant entre les riches et les pauvres en termes
d'opportunités numériques. Discrimination numérique renforcée pour les groupes
marginalisés (personnes âgées, migrants, etc.).
• Atteinte aux droits fondamentaux :Accès réduit à l'information, limitant la participation
citoyenne et les droits civiques. Inégalité dans l'accès à l'éducation, privant les personnes des
opportunités de développement socio-économique.
• Risques d'exclusion dans l'économie numérique :Difficulté d'accès aux services financiers
numériques et à l'inclusion économique. Désavantage en termes d'employabilité dû au
manque de compétences numériques.
3.1.1 Enjeux éthiques liés à la
fracture numérique (Suite)
4. Comment réduire la fracture numérique ?
Pour résoudre ces enjeux éthiques, plusieurs actions peuvent être envisagées :
• Développer les infrastructures numériques dans les zones défavorisées : Investir dans
l’extension des réseaux internet dans les zones rurales et marginalisées pour garantir un
accès équitable.
• Subventionner l'accès aux TIC : Proposer des aides pour l’acquisition de matériel
informatique et l’accès à internet pour les personnes à faibles revenus.
• Former aux compétences numériques : Mettre en place des programmes de formation
accessibles pour toutes les catégories de la population, notamment les personnes âgées,
les femmes, et les communautés marginalisées.
• Promouvoir une gouvernance inclusive : Impliquer toutes les parties prenantes, y compris
les populations vulnérables, dans l’élaboration des politiques numériques afin de garantir
que personne ne soit laissé de côté.
3.1.2. Désinformation :
Propagation de fausses
informations
• Définition : La désinformation est la diffusion intentionnelle de
fausses informations pour tromper, influencer ou manipuler l'opinion
publique.
• Exemples : Les fake news circulent souvent rapidement via les
réseaux sociaux, entraînant des conséquences politiques, sociales et
économiques.
• Enjeux éthiques : Les plateformes numériques doivent se
responsabiliser et mettre en place des systèmes de fact-checking, tout
en respectant la liberté d'expression.
3.1.3. Addiction aux écrans : Les
effets sur la santé mentale et
sociale
• Définition : L’addiction aux écrans se manifeste par un usage excessif
et incontrôlé des appareils numériques (smartphones, ordinateurs,
jeux vidéo, etc.).
• Impacts sur la santé : Problèmes de concentration, troubles du
sommeil, anxiété, dépression, isolement social.
• Solutions possibles : Sensibilisation, éducation à l’usage responsable
des technologies, limites d’utilisation pour les jeunes, développement
de fonctionnalités de régulation du temps d'écran.
3.2 Éthique dans le
développement de logiciels
3.2.1. Responsabilité des
développeurs
• Création de valeur: Les développeurs ont un rôle clé dans la création
de technologies qui améliorent la vie des individus et de la société.
• Conscience des impacts: Les développeurs doivent être conscients
des conséquences potentielles de leurs créations.
• Responsabilité sociale: Intégrer des considérations éthiques dans leur
travail.
• Exemple : Le développement de logiciels de reconnaissance faciale
doit respecter la confidentialité des données et éviter les biais
discriminatoires.
3.2.2 Tests éthiques
• Objectif: Évaluer les impacts potentiels d'un logiciel sur les individus
et la société.
• Méthodologies:
• Analyse d'impact éthique: Identifier les risques et les bénéfices potentiels.
• Tests utilisateurs: Observer les réactions des utilisateurs dans des situations
réelles.
• Évaluations par des pairs: Solliciter l'avis d'experts en éthique.
• Enjeux:
• Subjectivité: L'évaluation éthique est souvent subjective et dépend du
contexte.
• Coûts: Les tests éthiques peuvent être coûteux en temps et en ressources.
3.2.3 Éthique par la conception
• Intégration dès la conception: Intégrer des considérations éthiques
dès les premières étapes de développement.
• Principes directeurs:
• Transparence: Expliquer le fonctionnement des algorithmes.
• Justice: Éviter les biais discriminatoires.
• Responsabilité: Assurer la responsabilité des décisions prises par les
systèmes.
3.2.3 Éthique par la conception
(Suite)
Exemples:
• Conception centrée sur l'humain: Mettre l'utilisateur au cœur du
processus de conception.
• Protection de la vie privée: Minimiser la collecte et l'utilisation des
données personnelles.
3.3 Perspectives d'avenir
3.3.1 Nouveaux défis
• Réalité virtuelle et augmentée: Questions d'immersion, de
manipulation mentale, de dépendance.
• Nanotechnologies: Impacts sur la santé, l'environnement, la sécurité.
• Bioéthique: Modification génétique, intelligence artificielle et
conscience.
3.3.2 Rôle des informaticiens
• Acteurs clés: Les informaticiens ont un rôle central dans le
développement des technologies.
• Responsabilités:
• Développement responsable: Créer des technologies bénéfiques pour la
société.
• Sensibilisation: Sensibiliser le public aux enjeux éthiques.
• Collaboration: Travailler avec d'autres disciplines (philosophie, sociologie,
droit).
3.3.3 Éthique et régulation
• Régulation évolutive : Les législations doivent évoluer pour s’adapter
aux nouvelles réalités numériques tout en protégeant les droits
fondamentaux.
• Collaboration internationale : Les questions éthiques liées au
numérique sont globales et nécessitent des réponses concertées
entre les pays.
• Exemple : Le développement de normes internationales pour
encadrer les usages de l’IA, comme l'éthique de l’automatisation dans
les systèmes de décision.

Vous aimerez peut-être aussi