یک گزارش سازمان ملل متحد، آنچه را بسیاری از ما به آن شک داشتیم، تایید کرد: دستیاران مجازی که تصویر زن را القاء میکنند، عامل ترغیب ایدهآلهای جنسیت گرایی هستند. این گزارش، خصوصا «الکسا»ی آمازون و «سیری» اپل را مورد بررسی قرار داده که هر دو به عنوان «زن» به بازار عرضه شدهاند.
چند لحظهای را به توضیح واضحات اختصاص بدهیم: البته که ماشین، جنسیتی ندارد. «سیری» از یک لپ تاپ یا خودرو مونثتر نیست. اما تمام هدف هوش مصنوعی، ایجاد یک ذهن انسانی و کُدی در آن است که مثل انسان به آن توانایی فراگیری بدهد. این موسسات میخواهند شما به محصولاتشان احساس وابستگی کنید و با آنها به گونهای رفتار کنید که بیش از سایر فرآوردههای تکنولوژی به بشر نزدیک باشند. به همین دلیل آنها را به کد جنسیت مجهز کردند.
تنها میتوانیم در مورد انگیزه این سه شرکت عظیم تکنولوژی («دستیار» گوگل موضوع مطالعه این گزارش نبوده، اما روی آن هم صدای زن گذاشته شده است) برای گذاشتن صدای زن به روی رباتهای اطلاعاتی گمانه زنی کنیم. اما میدانیم که این تصمیم سرسری گرفته نشده است. این ماشینها به گونهای طراحی شدهاند که بیست و چهار ساعت شبانه روز، هر نیازی دارید از خوشحال کردن تا رزرو سفرهایتان، در اختیارتان باشند. نقششان جایی میان یک دستیار خصوصی، یک منشی و یک خانه دار است که همه به شکل سنتی با نقش جا افتاده زن تداعی میشود. باید توجه کرد که ایفای این نقشها مستلزم تحمل بار عاطفی و بازده اندک است.
یک سخنگوی مایکروسافت در مورد «کورتانا»، دستیار مجازی ویندوز (که موضوع این گزارش نیست) به نشریه «پی سی مگ» گفت: «انتخاب صدای زن عمدی بوده تا تصویر یک «دستیار معتمد، مفید و حامی» را به وجود بیاورد».
اگر یکی از این محصولات را امتحان کرده باشید، میدانید که آنها آنقدرها که مخترعینشان میگویند مفید نیستند. اگر دستوری را با فریاد به «الکسا» بدهید، میگوید: «ببخشید، متوجه منظورتان نشدم»؛ اگر از «سیری» سئوالی بپرسید که درست عبارت بندی نشده، می ببینید چطور پاسخهای عجیب و غیرمنطقی به شما میدهد. این را با «واتسون» آیبیام مقایسه کنید که برای درمان بیماری سرطان و پیروزی در بازی «جپردی» برنامه ریزی شده و با صدای مرد صحبت میکند. این ممکن است عمدی نباشد، اما تصادفی هم نیست.
این گونه است که هوش مصنوعی حقوق زن را از بین میبرد.
زنان هم اکنون نیز باید دو برابر مردها کار کنند تا تواناییهایشان به اندازه نیمی از آنها پذیرفته شود. این تبعیضی ناخودآگاه است که به خاطر تمام موارد تبعیض جنسی که در اطرافمان در جهان غرب میبینیم، از جمله نبود رهبر زن، در همه ما وجود دارد. همه ما تحت نفوذ این گونه پیامها هستیم و تا زمانی که متوجه آن نشده و با آن مبارزه نکردهایم، مسئول ادامه آن هستیم. به نظر میرسد این نکته به کلی از چشم طراحان این دستیاران مجازی پنهان بوده است؛ طراحان و مهندسانی که به گفته پژوهشگران (این گزارش) عمدتاً مرد هستند.
Read More
This section contains relevant reference points, placed in (Inner related node field)
اما مشکل تنها به تعدیل کلیشههای جنسیتی مطیع بودن (دستیاران مجازی) ختم نمیشود بلکه به واکنش نگران کننده آنها هم مرتبط است. به «سیری» بگویید فاحشه، و او با عشوهگری میگوید: «اگر میتوانستم، سرخ میشدم». این واکنش به بددهنی چنان مساله برانگیز است که سازمان ملل آن را برای عنوان گزارشش انتخاب کرده است. واکنش «سیری» در این مورد چندان تغییری در این معضل نمیدهد وقتی میگوید: «برای بازخورد ممنونم».
به گفته پژوهشگران، این ماشینها برای واکنش با صدای مطیع برنامه ریزی شدهاند و واکنششان در مقابل توهین، عذرخواهی و سازگاری است. به اندازه کافی بد است که چنین تصویری از زن را در فرهنگ عوام و آگهیهای صفحه اول نشریات می بینیم که حالا صدای آن را مستقیماً در خانههایمان هم بشنویم.
انتشار این گزارش با خشم کاربران در شبکههای اجتماعی همراه بود. مردم مشکل آن را درک نمیکردند و معتقد بودند در نکتهای عادی اغراق شده است. من این را درک می کنم که این (ماشینها) نهایتاً زن نیستند، اما زنان واقعی (غیرماشینی) از اینکه به ادامه ارزشهای جنسیت گرایانه در جامعه صحه گذاشته میشود، آزرده میشوند. به ویژه در ارتباط با محصولاتی که قرار است مترقی و بی غرضانه باشند. متاسفانه، برای آن گروه از ما که چندان (در امور اجتماعی) فعال نیستیم، جایی که زن ستیزیِ نهادینه مطرح میشود، یا با آن مبارزه یا در موردش اغماض میکنیم. اگر در این که دستیار مجازی شما در مقابل فاحشه خواندنش با طنازی پاسخ میدهد، ایرادی نمیبینید، شما خودتان بخشی از این معضل هستید.
همانند بسیاری از موارد «جنسیت گرایی ناآگاهانه» از جانب سازمانهایی که باید بهتر بدانند و نیز کمپینهای بازاریابی توهین آمیز، تا عدم تساوی دستمزد میان زن و مرد، این هم نمایانگر آن است که کسانی که در مسند قدرت نشستهاند، عمدتاً مرد هستند.
آنها همچنین سفید پوست هستند. به همین دلیل است که نرم افزارهایی اختراع شد که با استناد به شاخص جرم و جنایت، سیاه پوستان را عامل عمده خطر عنوان کرد. در سال ۲۰۱۷، پژوهشها نشان داد که زمانی که هوش مجازی به خود زبان انگلیسی یاد میدهد، نژاد پرست و جنسیت گرا میشود. آزمایشهای ساده نشان میدهد که سایت ترجمه گوگل فرض را بر این قرار میدهد که پزشکان مرد هستند حتی اگر هیچگونه ضمیری (در زبان انگلیسی برای مرد و زن ضمایر متفاوت استفاده میشود) برای آن به کار برده نشود. سال گذشته، آمازون یک نرم افزار هوش مصنوعی برای استخدام افراد را از دور خارج کرد زیرا روشن شد این نرم افزار کاندیداهای مرد را به زن ترجیح میدهد.
آنچه به ویژه جالب است این است که اطمینان دارم آن گروه مردهای عمدتاً سفید پوست «هتروسکسوئل» که در سانفرانسیسکو نشسته و کد این برنامهها را مینویسند، هرگز خود را جنسیت گرا یا نژادپرست نمیبینند. اطمینان دارم افرادی خوب و بسیار هوشمند هستند که به هیلاری (کلینتون) رأی داده و برای دوست دخترشان نوار بهداشتی میخرند. نکته همین جاست: تمایل نهادینه و ناخودآگاه به تبعیض در همه کس و در همه جا هست. تا زمانی که متوجه آن نشده و تیمهایی حقیقتا گوناگون به وجود نیاوردهایم، هرگز نخواهیم توانست چرخه برتری مرد سفید پوست را که به نظر میرسد در آن گرفتار هستیم، بشکنیم.
© The Independent