Close Menu

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    What's Hot

    Les ministres des Affaires étrangères des Émirats arabes unis et de l’Allemagne discutent de leurs relations à Berlin

    mars 6, 2026

    Apple renouvelle sa gamme MacBook Air avec la puce M5 et le Wi-Fi 7.

    mars 6, 2026

    Le Conseil de sécurité de l’ONU exhorte la Libye à entamer des pourparlers avec l’envoyé spécial de l’ONU.

    mars 5, 2026
    Facebook X (Twitter) Instagram
    • Accueil
    • Contactez nous
    la vigie lebanla vigie leban
    • Actualités
    • Automobile
    • Divertissement
    • Entreprises
    • Luxe
    • Mode de vie
    • Santé
    • Sports
    • Technologie
    • Voyage
    la vigie lebanla vigie leban
    Accueil » Une étude met en évidence les dommages potentiels causés par les robots de deuil IA sur les personnes endeuillées
    Technologie

    Une étude met en évidence les dommages potentiels causés par les robots de deuil IA sur les personnes endeuillées

    mai 11, 2024
    Facebook Twitter LinkedIn Telegram Pinterest Tumblr Reddit Email WhatsApp
    Partager
    Facebook Twitter LinkedIn Pinterest Email WhatsApp

    Dans le domaine de l’au-delà numérique, où la technologie de l’IA permet des conversations avec les défunts, les préoccupations concernant les limites éthiques et les dommages potentiels ont été mises au premier plan par les scientifiques de l’Université de Cambridge. Surnommés « Deadbots » ou « Griefbots », ces chatbots basés sur l’IA sont conçus pour imiter le langage et la personnalité des proches décédés, offrant ainsi du réconfort aux personnes endeuillées. Cependant, une étude récente prévient que ces innovations pourraient entraîner des conséquences inattendues, notamment ce que les chercheurs qualifient de « hantises numériques » en raison d’un manque de normes de sécurité.

    Une étude met en évidence les dommages potentiels causés par les robots de deuil IA sur les personnes endeuillées

    Les implications éthiques d’une telle technologie ont été soulignées par les expériences de personnes comme Joshua Barbeau, qui a utilisé une première version de la technologie d’IA connue sous le nom de Projet Décembre pour converser avec une réplique numérique de sa fiancée décédée. En fournissant à l’IA des échantillons de ses textes et de ses descriptions personnelles, Barbeau a été témoin de réponses réalistes qui ont soulevé des inquiétudes quant à l’utilisation abusive potentielle d’une telle technologie, notamment l’insertion de publicités déguisées en pensées du défunt.

    Par ailleurs, les psychologues soulignent l’impact de ces technologies sur les enfants confrontés à une perte, soulevant des questions sur la dignité des défunts et le bien-être des vivants. Le professeur Ines Testoni, de l’ Université de Padoue, souligne la difficulté de se séparer des proches disparus, en soulignant l’importance de comprendre la mort et ses conséquences. Pour illustrer les risques potentiels, les éthiciens de Cambridge AI présentent trois scénarios hypothétiques dans lesquels les chagrinbots pourraient infliger des dommages.

    Il s’agit notamment de simulations non autorisées de personnes décédées faisant la promotion de produits commerciaux, de la confusion résultant d’interactions irréalistes entraînant des retards dans la guérison et de l’imposition de présences numériques à des destinataires réticents, provoquant une détresse émotionnelle et un sentiment de culpabilité. L’étude préconise la mise en œuvre de processus de conception basés sur le consentement pour les chagrinbots, intégrant des mécanismes de désinscription et des restrictions d’âge. En outre, il appelle à de nouveaux rituels pour retirer respectueusement ces répliques numériques, se demandant si une telle technologie ne fait que retarder le processus de deuil.

    Le Dr Katarzyna Nowaczyk-Basińska, co-auteur de l’étude, souligne les complexités éthiques de l’IA dans l’au-delà numérique, soulignant la nécessité de donner la priorité à la dignité des défunts et de protéger les droits des donneurs de données et des utilisateurs. Alors que l’utilisation de l’IA dans le domaine de l’au-delà numérique continue d’évoluer, les considérations éthiques restent primordiales pour naviguer dans ce territoire inexploré. En Chine, l’industrie florissante des répliques d’êtres chers décédés générées par l’IA apporte du réconfort aux personnes en deuil tout en soulevant d’importantes questions éthiques. Des entreprises comme Silicon Intelligence capitalisent sur les avancées de la technologie de l’IA pour créer des avatars numériques qui simulent des conversations avec les morts, offrant ainsi du réconfort à des individus comme Sun Kai, qui cherche à maintenir un lien avec sa mère décédée.

    La demande pour ces services souligne une tradition culturelle de communion avec les morts, mais les critiques se demandent si l’interaction avec des répliques d’IA est un moyen sain de gérer le deuil. Malgré les limites technologiques et les incertitudes éthiques, le marché de l’immortalité numérique est en plein essor, avec une baisse des prix et une accessibilité croissante. Les avatars générés par l’IA, semblables aux deepfakes, s’appuient sur des entrées de données telles que des photos, des vidéos et du texte pour reproduire l’apparence et les modèles de discours d’une personne décédée. Les progrès rapides de la Chine dans la technologie de l’IA ont rendu ces services plus accessibles, des sociétés comme Silicon Intelligence proposant des options personnalisables allant des applications interactives aux écrans de tablettes.

    Alors que certains considèrent ces répliques comme thérapeutiques, d’autres s’inquiètent de l’authenticité des interactions et des implications éthiques de la reproduction des morts sans leur consentement. De plus, les défis techniques tels que la reproduction des mouvements corporels et l’obtention de données d’entraînement suffisantes posent des obstacles importants. Les dilemmes éthiques entourant les répliques d’IA ont été illustrés par un incident controversé impliquant une entreprise de Ningbo, qui a utilisé l’IA pour créer des vidéos de célébrités décédées sans consentement. L’incident a suscité un tollé général et a mis en évidence la nécessité de lignes directrices éthiques claires dans le domaine en plein essor de la technologie numérique de l’au-delà.

    Articles Similaires

    Apple renouvelle sa gamme MacBook Air avec la puce M5 et le Wi-Fi 7.

    mars 6, 2026

    Apple lance la gamme MacBook Pro M5 Pro et M5 Max

    mars 5, 2026

    Samsung Inde ouvre les précommandes pour la série Galaxy S26

    mars 3, 2026

    OpenAI signe un contrat avec Tata pour des centres de données d’IA de 100 MW en Inde.

    février 21, 2026

    Le prince héritier des Émirats arabes unis arrive à New Delhi pour le sommet indien sur l’IA.

    février 20, 2026

    L’Inde inaugure le Sommet sur l’impact de l’IA en présence du chef de l’ONU.

    février 17, 2026
    Dernières Nouvelles
    Entreprises

    Les ministres des Affaires étrangères des Émirats arabes unis et de l’Allemagne discutent de leurs relations à Berlin

    mars 6, 2026

    BERLIN : Le cheikh Abdullah bin Zayed Al Nahyan, vice-Premier ministre et ministre des Affaires…

    Apple renouvelle sa gamme MacBook Air avec la puce M5 et le Wi-Fi 7.

    mars 6, 2026

    Le Conseil de sécurité de l’ONU exhorte la Libye à entamer des pourparlers avec l’envoyé spécial de l’ONU.

    mars 5, 2026

    L’indice PMI manufacturier chinois recule en février, la production étant réduite par les jours fériés.

    mars 5, 2026

    Apple lance la gamme MacBook Pro M5 Pro et M5 Max

    mars 5, 2026

    Un séisme de magnitude 6,1 a secoué Sumatra au large des côtes ; aucun tsunami n’a été déploré.

    mars 4, 2026
    © 2021 la vigie leban | Tous droits réservés
    • Accueil
    • Contactez nous

    Type above and press Enter to search. Press Esc to cancel.