شبیه‌سازی مردگان با هوش مصنوعی نزدیکان را با خطر «شبح‌زدگی دیجیتال» مواجه می‌کند

کارشناسان فلسفه اخلاق دانشگاه کمبریج می‌گویند اثر روانی این مسئله ممکن است ویرانگر باشد

تصویر تزئینی زنی که شب‌هنگام در رختخواب به صفحه گوشی تلفن همراهش نگاه می‌کند‌- Canva

پژوهشگران هشدار دادند شبیه‌سازی‌های هوش مصنوعی از مردگان با خطر «شبح‌زدگی دیجیتال ناخواسته» همراه است.

یافته‌های پژوهش جدید کارشناسان فلسفه اخلاق در دانشگاه کمبریج نشان می‌دهد که برای محافظت از دوستان و اقوام به‌جا‌مانده از فرد متوفی، چت‌ربات‌های هوش مصنوعی که قادر به شبیه‌سازی شخصیت افراد درگذشته‌اند‌ــ و با نام مرده‌ربات‌‌ شناخته می‌شوند‌ــ نیازمند پروتکل‌های ایمنی‌اند.

برخی شرکت‌های چت‌ربات در حال حاضر گزینه شبیه‌سازی زبان و ویژگی‌های شخصیتی عزیزان درگذشته با استفاده از هوش مصنوعی را به مشتریان ارائه می‌دهند.

کارشناسان فلسفه اخلاق در مرکز آینده هوش لورهیوم (Leverhulme Center for the Future of Intelligence) در دانشگاه کمبریج می‌گویند چنین کارهای مخاطره‌آمیزی به‌دلیل اثر روانی که می‌توانند روی افراد بگذارند، «پرخطرند».

دکتر توماش هولانک، یکی از نویسندگان این پژوهش از مرکز لورهیوم، گفت: «ضروری است خدمات دیجیتال زندگی پس از مرگ حقوق و رضایت افراد را در نظر بگیرند، نه فقط حقوق و رضایت کسانی را که بازآفرینی می‌کنند، بلکه کسانی که با این شبیه‌سازی‌ها تعامل خواهند داشت.»

Read More

This section contains relevant reference points, placed in (Inner related node field)

«اگر افراد در اثر بازآفرینی‌های به‌شدت دقیق هوش مصنوعی از کسانی که از دست داده‌اند در معرض تداعی دیجیتال مکرر ناخواسته قرار بگیرند، این نوع خدمات خطر ایجاد رنج و اندوه عظیم در افراد را به همراه دارد. تاثیر روانی احتمالی، به‌ویژه در دوره‌ای که به‌خودی خود دشوار است، می‌تواند ویرانگر باشد.»

این یافته‌ها در نشریه «فلسفه و فناوری» (Philosophy and Technology) در پژوهشی با عنوان «اندوه‌ربات‌ها، مرده‌ربات‌ها، تجسم‌های پسامرگ: در باب کاربرد مسئولانه هوش مصنوعی مولد در صنعت دیجیتال زندگی پس از مرگ» منتشر شده است.

این پژوهش شرح می‌دهد که چطور شرکت‌های چت‌ربات هوش مصنوعی که مدعی‌اند قادرند مردگان را بازگردانند می‌توانند با استفاده از این فناوری، خانواده و دوستان را در معرض سیل ناخواسته پیام‌ها و آگهی‌های تبلیغاتی قرار دهند که با فرد متوفی شباهت دیجیتال دارند.

پژوهشگران هشدار دادند که چنین نتیجه‌‌ای برابر با این خواهد بود «مردگان در تعقیبت باشند».

دکتر کاتارژینا نواچیک باشینشکا، یکی از نویسندگان این پژوهش، گفت: «پیشرفت‌های سریع در حوزه هوش مصنوعی مولد به این معنی است که تقریبا هرکس با دسترسی به اینترنت و معلومات ابتدایی می‌تواند عزیزی را که درگذشته است زنده کند.»

«این حوزه از هوش مصنوعی از لحاظ اخلاقی شبیه میدان مین است. مسئله مهم این است که شان فرد متوفی در اولویت قرار داده شود، و اطمینان حاصل شود که به‌عنوان مثال، انگیزه‌های مالی خدمات دیجیتال زندگی پس از مرگ به آن تعدی نکنند.

«در عین حال، فردی ممکن است به‌عنوان هدیه خداحافظی یک شبیه‌سازی هوش مصنوعی برای عزیزانی باقی بگذارد که آمادگی هضم اندوه به این شیوه را ندارند. باید هم از حقوق اهداکننده داده‌ها و هم کسانی که با خدمات زندگی پسامرگ هوش مصنوعی تعامل دارند به‌طور یکسان محافظت شود.»

توصیه‌هایی که این پژوهش می‌کند تدابیر ایمنی حول موضوع توقف استفاده از مرده‌ربات‌ها و همین‌طور تقویت شفافیت در زمینه نحوه استفاده از این فناوری را شامل می‌شود.

کاربران چت‌ربات‌ها، شبیه قسمت «بازگشت» سریال «آینه سیاه» (Black Mirror)، با استفاده از این فناوری در تلاش‌اند عزیزان درگذشته را شبیه‌سازی کنند. مردی در کانادا در سال ۲۰۲۱ با استفاده از یک ابزار هوش مصنوعی موسوم به پراجکت دسامبر (Project  December) که به ادعای این مرد تقلیدی از شخصیت نامزد متوفی‌اش بود، سعی داشت با او صحبت کند.

جاشوا باربو آن زمان به نشریه سان‌فرانسیکو کرونیکل گفت: «از لحاظ عقلی، می‌دانم که واقعا جسیکا نیست. اما عواطف آدم پیرو عقل نیست.»

میشل هوانگ، هنرمند ساکن نیویورک، در سال ۲۰۲۲ یادداشت‌های دفتر خاطرات کودکی‌اش را به یک مدل زبانی هوش مصنوعی داد تا با خودش در گذشته گفت‌گو کند.

هوانگ به ایندیپندنت گفت مثل این بود که «سراغ گذشته بروی و تناقض زمانی را هک کنی» و افزود حس می‌کردی «در هپروت سیر می‌کنی».

© The Independent

بیشتر از تکنولوژی