یکی از فاحشترین مشکلات طرح کمیتۀ دیجیتال، فرهنگ، رسانه و ورزش مجلس که نادیده گرفته شد این بود که به شرکت کانادایی اگرگیتآیکیو اجازه داد برای بررسی تصاویر افراد از هوش مصنوعی استفاده کند.
نرمافزار این شرکت میتواند عکس افراد را اسکن کرده، با عکس حساب کاربری فیسبوکشان مقایسه کند. همین حالا احتمال دارد که از عکس شما هم در سراسر اینترنت در شبکههای متفاوت و در موقعیتهای گوناگون استفاده شود تا تصویری از شخصیت مجازی شما به دست آید. چهرۀ انسان بسیاری چیزها را دربارۀ او عیان میکند: نژاد، جنسیت، سن، وزن، و از همه مهمتر، با بررسی آن در شبکههای گوناگون میتوان به راحتی عقاید و علایقش فرد را دریافت. و وقتی کار به حسابهای کاربری فرد در شبکههای اجتماعی برسد، دری به روی پسندهای فرد، روحیه و مکان جغرافیایی در هر زمان باز خواهد بود.
دقیقاً به همین علت باید بابت استفادۀ شرکت خصوصی ساختمانساز آرجنت (Argent) از فناوری تشخیص چهره نگران باشیم. این شرکت پروژههایی متعدد را در فضایی به مساحت ۶۷ هکتار در مرکز لندن در دست دارد و معلوم نیست اصلاً چرا باید از این فناوری مناقشهبرانگیز استفاده کند. در هر حال، این شرکت ساختمانسازی اکنون چهرۀ دهها هزار نفر از شهروندان از همهجا بیخبر لندن را اسکن و ضبط کرده است.
چهرۀ خریداران بیگناه و گردشگرانی که از مرکز فروش زیبای جدید در کول دراپس یارد دیدار میکنند نیز ممکن است ناخواسته اسکن چهره شده، بدون رضایتشان در بانک اطلاعاتی ضبط شود.
فناوری تشخیص چهره این فرضیه را به کل کنار گذاشته است که همه بیگناهاند تا زمانی که خلافش ثابت شود. پلیس برای بازرسی شما نیاز به ”ظن معقول“دارد، هرچند این هم باعث جلوگیری از سوءاستفاده از قدرت نشده است، ولی تشخیص چهره یعنی چهرۀ شما اسکن خواهد شد، چه خلافی کرده باشید و چه نکرده باشید.
دنیای جدید آمیخته به فناوری تشخیص چهره ترسناک به نظر میرسد. اکنون دولت چین تشخیص چهره را به منزلۀ بخشی از طرح تمامیتخواهانهاش برای کنترل کامل افکار و اندیشۀ شهروندان خود به کار گرفته است. شیائولین وو و شی ژانگ در تحقیق خود با نام «مبارزۀ خودکار با جرم از طریق تصاویر چهره» ادعا میکنند میتوانند برنامهای بنویسند که از طریق بررسی ویژگیهای چهره افراد، اشخاص مجرم را تشخیص دهد. این ویژگیهای چهره چیستند؟ «میزان خمیدگی لب، فاصلۀ دو گوشۀ داخلی چشمها از یکدیگر، و زاویۀ بین بینی و دهان».
چین پیشتاز طراحی خودکامۀ طرحهای اجتماعی با استفاده از فناوری روز است، از جمله طرح امتیاز اجتماعی که از فناوری تشخیص چهره و دوربینهای مداربسته استفاده میکند تا امتیاز اجتماعی اشخاصی با تخلفات جزیی از قوانین کمونیسم را کاهش دهد. این تخلفات شامل اموری مانند قرار دادن پا روی صندلی مترو هم میشود، چه برسد به نقد دولت خودکامۀ چین.
بگذارید رُک باشم. این فناوری برای سیاهپوستان بسیار بیشتر مشکلآفرین خواهد بود. یک شرکت تازه تاسیس متمرکز بر تشخیص چهره با نام فیسپشن (Faception) در وبسایت خود ادعا میکند: «ما تشخیصدهندههایی اختصاصی طراحی میکنیم که هر کدام یکی از ویژگیهای شخصیتی انسان یا رفتار او را توصیف میکند، ویژگیها و رفتارهایی نظیر برونگرایی، باهوش بودن، بازیکن حرفهای پوکر بودن، یا حتی تهدیدکنندگی فرد».
این عقیده که چهرۀ ما نشاندهندۀ میزان هوش یا مجرم بودن ماست یادآور تحقیقات شدیداً مناقشه برانگیز است که در گذشته صورت گرفته است، به ویژه «دانش» شدیدا نژادپرستانۀ چهرهخوانی (physiognomy) در دوران ویکتوریا. سزار لابروزو، یکی از مدافعان جدی چهرهخوانی به الهام فکری فاشیستها در ایتالیا و نازیها در آلمان تبدیل شد. آنان به افکار او جامۀ عمل پوشاندند و بنا به برنامههای شوم آنان برای نسلکشی و اصلاح نژادی، چهره و در نتیجه نژاد میتوانست حاکی از مجرم بودن فرد باشد.
در عمل هم شاخصهای نژادپرستانۀ این فناوری آشکارا واقعی است. در برنامۀ تشخیص چهرهای که پلیس نیز از آن استفاده میکند دیدیم که رئیس سابق این طرح در پلیس بریتانیا نیز میدانست مسئلۀ نژاد مشکل جدی این فناوری است. در جشنواره ناتینگ هیل در سالهای ۲۰۱۷ و ۲۰۱۸ و در یک مراسم یادبود روز یکشنبه، فناوری تشخیص چهره بیش از صدها تشخیص اشتباه داشت، ولی حتی منجر به یک بازداشت هم نشد.
سیلکی کارلو، دبیر کارزار «برادر بزرگ شما را میبیند» که پرچم مبارزه با این فناوری خطرناک را بلند کرده است، گفت: «کوتاهی پلیس از انجام آزمایشی ساده و مقدماتی برای تطبیق صحت یافتههای این فناوری بر اساس نژاد به اندازه کافی گویاست. نادیدهانگاری عامدانۀ خطر نژادپرستی و خطری که این فناوری برای حقوق همۀ شهروندان بریتانیایی دارد، نشانۀ روش خطرناک و غیرمسئولانهای است که فناوری تشخیص چهره بر اساس آن به کار گرفته شده و خیابانهای ما را پر کرده است».
شرکتها معمولاً ضعیفترین عاملان حفاظت از حریم شخصی ما هستند. چرا باید آرجنت، که فقط مالک زمین است، علیه درخواست پلیس برای تسلیم بانک اطلاعاتی تشخیص چهرۀ خود مقاومت کند؟ در سالهای اخیر شاهد بودهایم که چگونه شرکتهای عظیمی نظیر ایای (EE)، ودافون (Vodafone)، و تیری (Three) به پلیس اجازۀ دسترسی به بانک اطلاعاتی مشترکانشان را دادند. چه تضمینی وجود دارد که آرجنت تصویر چهرۀ هزاران نفر از افراد بیگناه را تسلیم پلیس لندن نکند تا از آن برای تقسیمبندی نژادی یا مطالعۀ رفتار انسانی استفاده شود؟ آرجنت طی بیانیهای اظهار داشت: «این دوربینها از چند روش مختلف ردیابی و تشخیص، از جمله تشخیص چهره، استفاده میکنند ولی همچنین سیستمی پیچیده برای حفاظت از حریم خصوصی همۀ مردم دارند.“راست میگویی! بدون تضمین قانونی و شفافیت دربارۀ اینکه از این بانک اطلاعات چگونه استفاده میشود، چطور میتوانیم از آنچه واقعاً اتفاق میافتد باخبر باشیم؟
همچنان که گروه حقوق آزاد (Open Rights Group) به من گفت، استفاده از بانک اطلاعاتی پلیس در خصوص تشخیص چهرۀ افرادی که در تظاهرات صلحآمیز شرکت کردهاند نیز به شدت نگرانکننده است؛ تظاهراتی نظیر شورش برای انقراض یا تجمعات اتحادیههای کارگری. همچنین، اگر شرکتها نیز بانک اطلاعاتی خود را در اختیار بگذارند، پلیس دسترسی همزمان و دقیقی به جابهجاییها و همۀ اعمال شهروندان کاملاً بیگناه دارد.
میدانیم که شرکتها به فشار افکار عمومی پاسخ میدهند. اگر به آزادی اهمیت میدهید، به مغازههای فروشگاه کول دراپس یارد بگویید خوشتان نمیآید که چهرهتان را مدام ضبط میکنند. برای خرید به فروشگاههایی بروید که از چهره شما فیلمبرداری نمیکنند. در یک جامعه باز، ما در مقام شهروندان و مشتریان میتوانیم پیامی روشن به شرکتهایی بفرستیم که میپندارند حریم خصوصی ما کالایی معاملهشدنی است: «جای دیگری خواهیم رفت».
https://www.independent.co.uk/voices
© The Independent