«آیا برنامههای هوش مصنوعی میتوانند خودآگاه شوند؟» این پرسشی آشنا است. نوع بشر این پرسش را از پیش از آنکه هال از ادیسه فضایی روی صفحه نمایشمان ظاهر شود، مطرح کرد– اما زمانی که فرصت مصاحبه با یکی از کارشناسان برجسته جهان در زمینه هوش مصنوعی را دارید، باید دوباره آن را بپرسید. [هال ۹۰۰۰ نام سیستم هوش مصنوعی در فیلم «۲۰۰۱: ادیسه فضایی» استنلی کوبریک است]
من منتظر پشتچشم نازک کردنام؛ یک «البته که نه» خستهکننده. اما در عوض، پروفسور وینسنت کانیتزر– استاد علوم رایانه در دانشگاه کارنگی ملون و دانشگاه آکسفورد با تمرکز بر هوش مصنوعی و یادگیری ماشین و رئیس بخش تعامل با هوش مصنوعی در موسسه اخلاق در هوش مصنوعی– امکان آن را در نظر میگیرد.
او به من میگوید: «این سیستمها بهوضوح خیلی سریع بهتر میشوند. شاید واقعا زمانی به این نتیجه برسیم که یک سیستم آگاه است.»
بحث درباره فردیت هوش مصنوعی چیزی نیست که من در آغاز [یعنی] زمانی که شروع کردم از یک چتبات نوشتن متنهای بد [مجموعه تلویزیونی] «نیلوفر سفید» و (حتی بدتر) آهنگهای ۱۹۷۵ را درخواست کنم، تصور میکردم. ابزار پیشتاز چتجیپیتی (ChatGPT) اوپناِیآی– آزمایشگاه تحقیقاتی غیرانتفاعی که ایلان ماسک در سال ۲۰۱۵ تاسیس کرد– اوایل این ماه عرضه شد. این به کاربر امکان میدهد پرسشی بپرسد یا درخواستی بدهد که این ابزار به روش انسانی به آن پاسخ میدهد و این پاسخها فوقالعاده قانعکنندهاند.
پس از چند ساعت کارهای بامزه– مانند نوشتن هایکو [اشعار ژاپنی] به سبک فریژر کرین (Frasier Crane) یا متنهای خانواده سوپرانو [Sopranos/یک مجموعه تلویزیونی] آنجایی که تونی از تگزاس میآید– موارد استفاده درست و واقعی بهسرعت مشخص میشود.
من ایمیلهای پیشنویس را روگذار [پیست/paste] میکنم و از ابزار میخواهم تا حرفهایتر به نظر برسند. من برای ایجاد متنهای مایکروسافت اکسل کمک میخواهم و از آن میخواهم برای ایدههای هدیه کریسمس خواهرزادهها و برادرزادهها کمک فکری بدهد. (برای برادرزاده ۱۲ سالهام مونوپولی و توپ فوتبال پیشنهاد میکند. برای خواهرزاده ۱۰ سالهام لوازم هنری یا بلیتهای سینما پیشنهاد میدهد. برای کودک ۹ ساله، کیت آزمایشهای علمی و برای کودک ۶ ساله، لباسهای شیک و رسمی و ابزار موسیقی پیشنهاد میکند)
بر اساس گزارشها، جرمی هوارد، پژوهشگر هوش مصنوعی که کارش الهامبخش ساخت چتجیپیتی بود، به دخترش گفت: «به هر چیزی که به شما میدهد، اعتماد نکنید.» به طور خاص، او هشدار میدهد که چتجیپیتی را خیلی جدی نگیرید یا فرض نکنید فقط به این دلیل که انسان نیست، سوءگیری ندارد. هوارد گفت: «این [چتجیپیتی] میتواند اشتباه کند.»
و از قضا اشتباه هم میکند. چتجیپیتی در پرسشهای ریاضی، اعداد اول را متوجه نشد و در محاسبات پایه ناموفق بود. هنگام ایجاد کد، از روی بیدقتی اشتباههایی میکند که یک کارآموز سرخوش مرتکب میشود. همچنین فکر میکرد که بنیانگذار مجله تایم همان مردی است که مالک شرکت غذای منجمد بردزآی (Birdseye) است.
با این وجود، به نظر میرسد بیشتر انسان باشد تا رایانه. اگر بابت یک اشتباه مچش گرفته شود، عذرخواهی میکند و میکوشد توضیح دهد چرا این اشتباه را مرتکب شده است. اگر پرسش را بد بیان کنید و از آن بپرسید، معمولا در هر صورت معنی را بدون توجه به آن استنباط میکند و هنگامی که وظایف نوشتن با قابلیت انعطاف و پایان باز بیشتری به آن محول شود، بارقههایی از خلاقیت وجود دارد.
همه اینها پرسشهایی نگرانکننده به وجود میآورند.
کارشناسان در بحث اخیر در مرکز تحقیقات پیو، انواع نگرانیهای توسعه هوش مصنوعی را سبک و سنگین میکنند– از جمله این نگرانی که ایجاد یک سیستم هوش مصنوعی واقعا مبتنی بر اخلاق، دشوار است. اینکه کنترل هوش مصنوعی در دستان شرکتها و دولتهای قدرتمند متمرکز است و اینکه این سیستمها آنقدر غیرشفافاند که تشخیص و اصلاح و جبران سوءاستفادهها دشوار است.
جان هارلو، متخصص تحقیقات شهرهای هوشمند در آزمایشگاه اینگیجمنت در کالج امرسون، در خلال آن مباحثه گفت: «از هوش مصنوعی در دهه آینده بیشتر به روشهای بحثبرانگیز استفاده خواهد شد. چرا؟ این روشی است که تاکنون از آن استفاده شده و ما در جایی که هوش مصنوعی در حال توسعه است، متخصصان اخلاق را آموزش نمیدهیم یا در آن نمیگنجانیم؛ پس چرا چیزی باید تغییر کند؟»
آیا هوش مصنوعی، شغل مرا خواهد گرفت؟
انگیزه من در در مصاحبهام با کانیتزر، در ابتدا علاقه شخصی بود. به طور خاص، با دیدن اینکه چتجیپیتی چقدر خوب میتواند بنویسد، میخواستم بدانم که آیا شغل روزنامهنگاری من در معرض خطر است؟ بسیاری از همکاران من با ظهور ناگهانی رکود اقتصادی– چه جدی و چه شوخی– این ایده را مطرح کردهاند که هوش مصنوعی پیشرفته میتواند خیلی راحت، حقوق و دستمزد را نابود کند. به هر حال، این ابزاری است که صرفا نسخههای انبوه مقالات خبری موجود را تولید نمیکند. میتواند کل مقاله را با فرمانهای یک جملهای سر هم کند. از آن میخواهم که سرمقالهای برای روزنامه بنویسد که آیا قطببندی سیاسی آمریکا به جنگ داخلی منجر میشود یا نه. طی چند ثانیه، مقالهای بهقدری منسجم تولید میکند که نمیتوانم آن را از بسیاری از سرمقالههای موجود در اینترنت تشخیص دهم و تفکیک کنم. چتجیپیتی جریانها و گرایشهای سیاسی نهفته آشفته را با کنترلها و موازنههایی که بیش از ۲۰۰ سال از کشور محافظت کردهاند ارزیابی و نتیجهگیری میکند: «با وجود این عوامل، هنوز هم ممکن است که قطبیسازی سیاسی در صورت کنترل نشدن، به جنگ داخلی بینجامد.»
مایکروسافت در سال ۲۰۲۰ برنامه انباشت ویرایشگر اماسان خود را کنار گذاشت تا هوش مصنوعی را جایگزین آن کند. اکنون این فناوری وجود دارد که حتی از این نیز فراتر رود؛ آیا تعداد زیاد گزارشها پیام هشدار است؟ در واقع، آیا بخش عظیمی از بازار کار به همین منوال پیش میرود؟
کانتیزر– هنوز– چندان نگران نیست و هوش مصنوعی را مکمل وظایف اغلب افراد میداند تا یک جایگزینی احتمالی: «اغلب مشاغل وظایف متعددی دارند. در برخی شرایط، ما میتوانیم برخی کارهای بیشتر تکرارشونده را خودکار کنیم، که میتواند به معنای آن باشد که شما برای اجرای یک وظیفه نسبت به قبل، به افراد کمتری نیاز دارید.»
یک مثال رادیولوژی است. «رادیولوژیستها کارهای زیادی انجام میدهند، اما بگذارید در مورد بخش خاصی از وظیفه صحبت کنیم که در آن تصویری از چیزی به دست میآورند و تلاش میکنند آن را طبقهبندی کنند که آیا یک تومور بدخیم است یا خیر. این چیزی است که میتوانید سعی کنید از طریق هوش مصنوعی آن را خودکار کنید؛ زیرا تلاش میکنید تصاویر جدید را با الگوهای موجود تطبیق دهید.»
Read More
This section contains relevant reference points, placed in (Inner related node field)
او معتقد است که مشاغل متمرکز بر روابط با تکرار محدود باید تا حد زیادی برای آینده نه چندان دور، دستنخورده باقی بمانند. او معلمی در یک مدرسه ابتدایی را به عنوان نقشی که احتمالا به مدتی طولانی وجود خواهد داشت، مثال میزند. در واقع، بسیاری از مشاغلی که در حال حاضر حقوق بالا دارند و چندین سال تحصیلات عالی میطلبند– برای نمونه مهندسی نرمافزار– بهمراتب بیشتر از مشاغلی همچون تدریس، پرستاری و مراقبت از سالمندان که در حال حاضر در بازار ارزش کمتری دارند، خودکار و ماشینی میشوند.
اما حتی اگر شغل شما ایمن هم باشد، هوش مصنوعی میتواند در انتخاب همکاران آتی شما نقش داشته باشد و این میدان مین است.
نرمافزار هوش مصنوعی قادر است هزاران تقاضانامه را بررسی کند تا ۱۰ موردی را که روی کاغذ، محتملترین گزینه برای این شغلاند، بیابد. اما ایجاد چنین سیستمی از همان ابتدا خطر سوءگیری را به دنبال دارد– چرا که باید نمونههایی از رزومههای گزینههای موفق و ناموفق را به آن نشان دهید. این خطر وجود دارد که پیشداوری یک مدیر بخش استخدام درباره عملکرد یک شرکت همواره باقی بماند.
کانتیزر میگوید: «ممکن است متوجه آن نشده باشید، اما اگر یکی از مواردی که به آن نگاه میکردید، نژاد یا جنسیت آن شخص بود و بر اینکه تصمیم به مصاحبه با او میگیرید یا نه، تاثیر میگذاشت، احتمالا سیستم متوجه این موضوع میشود و میگوید خب، این ظاهرا یکی از ویژگیهایی است که باید به آن اهمیت بدهم؛ چرا که این چیزی است که سیگنالها به من نشان میدهند.»
این مشکلی است که نیویورک سیتی در حال حاضر به کمک قانون بیسابقهای که هر سیستم تصمیمگیری استخدامی مبتنی بر هوش مصنوعی را به رسیدگی و بررسی سوءگیری ملزم میکند، برای مقابله با آن اقدام میکند.
از پلیس تا افسران عفو مشروط
حتی بحث برانگیزتر از بازار کار، دخالت هوش مصنوعی در دستگاه قضایی برای بسیاری، بهدرستی، نگرانکننده است. احتمال این ایده که ما میتوانیم بهزودی در جامعهای شبیه «گزارش اقلیت»– فیلمی با بازی تام کروز در سال ۲۰۰۲– زندگی کنیم بسیار کم است. در این فیلم، پلیس پیش از ارتکاب جرم قاتلان، از فناوری پیشگو برای دستگیری و محکوم کردن آنها استفاده میکند؛ اما ما در حال حاضر استفاده از یادگیری ماشینی در تصمیمگیری در خصوص اعطای آزادی مشروط به یک زندانی یا [امکان گذاشتن] وثیقه به مظنون را شاهدیم.
نیوجرسی در سال ۲۰۱۴، با تشویق موسسه عدالت پیش از محاکمه (پیجیآی)، ارزیابی ریسک الگوریتمی را تصویب کرد. اما موسسه پیجیآی از آن زمان، این روند را معکوس کرد و گفت که این الگوریتم در واقع بیعدالتی نژادی را افزایش داده است. تنیل پترسون، یکی از شرکای اجرایی، به وایرد (Wired) گفت: «ما در حوزههای قضایی که از این ابزار استفاده میکنند و کاهش جمعیت زندانها را شاهد بودند، دیدیم که نتوانستند کاهش نابرابریها را شاهد باشند و در برخی موارد افزایش نابرابریها مشاهده شد.»
با این حال، وقتی به پلیسهای میدانی و حاضر در صحنه میرسیم، مجموعهای از مشکلات دیگر وجود دارند که باید بررسی شوند. کانیتزر یادآور میشود که هوش مصنوعی میتواند برای ایجاد مسیرهای گشت پلیس بر اساس آمار جرم و جنایت استفاده شود– که مشکلات خاص خود را دارد: «اگر تنها راهی که متوجه میشوید جرمی در حال وقوع است، در درجه اول فرستادن خودروهای پلیس به آنجا است، میتواند این طور باشد که دادههای قبلی که شما دارید، محلههای خاصی را بیش از حد نشان میدهد؛ چرا که آنجا جایی است که شما خودروهای پلیس را میفرستید و میتوانید به یک چرخه معیوب پلیس مازاد وارد شوید که در جریان آن، ما به کشف جرائم در آنجا ادامه میدهیم؛ به این دلیل که خودروهای پلیس را به آنجا میفرستیم.»
وقتی رایانهها درباره درمان بیمارستانی شما تصمیم میگیرند
و اگر هوش مصنوعی شما را به چنگ قانون نیندازد، ممکن است به اقامت بعدی شما در بیمارستان رسیدگی کند؛ کانیتزر میگوید: «شاید مواردی وجود داشته باشد که بخواهید یک بیمار را بر بیمار دیگر اولویت دهید که به این پرسش منجر میشود: به چه دلیل اولویتبندی آنها درست است؟»
«آیا باید فردی را که جوانتر است در اولویت قرار دهید؟ در غیر این صورت، آیا باید به کسی که کمتر بیمار است، اولویت بدهید؟»
بیمارستانها در حال حاضر این کار را با استفاده از تخصص انسانی انجام میدهند– اما واگذاری چنین تصمیمگیری به نرمافزار واقعا خطرها را افزایش میدهد. این مسئله سبب شده است تا کارشناسانی مانند کانیتزر بررسی کنند افراد چگونه فکر میکنند و اینکه آیا میتوان در وهله اول، یک سیستم بیطرف و بدون نظر شخصی ایجاد کرد یا نه. او مانند بسیاری از همکاران دانشگاهی خود که کار خود را در علوم رایانهای شروع کردند، اکنون نیمی از زمانش را در بخش فلسفه کار میکند.
کانیتزر و دیگران در مقالهای در سال ۲۰۲۲، بررسی کردند که بر اساس افکارعمومی بریتانیا از نظر اخلاقی، کدام ویژگیهای بیماران در ردهبندی و اولویتبندی استفاده از دستگاه تنفس مصنوعی مناسب و موجهاند. سه ویژگی اصلی که افراد گفتند باید علیه دسترسی به دستگاه تنفس مصنوعی حساب شوند، اینها بودند: فرد در گذشته مرتکب جنایات خشونتآمیز شده باشد، در فعالیتهایی غیرضروری با خطر بالای ابتلا به کووید–۱۹ درگیر شده باشد و شانس زنده ماندن کم باشد.
کانیتزر توضیح میدهد: «ما نمیخواستیم پاسخ به این پرسشها را در معرض رای بگذاریم، اما میخواستیم فرایندی ارائه کنیم که چگونه میتوانید بفهمید تابع هدف چگونه باید باشد؛ به طوری که بتوانید آن را در عمل در یک سیستم هوش مصنوعی اجرا کنید.
مقالهای در مجله اتیکس هشدار داد که به طور کامل خودکار کردن فرایند ممکن است «انسانزدایی» باشد؛ هرچند استفاده از هوش مصنوعی برای تکمیل فرایند تصمیمگیری انسانی قابلقبول تلقی شد.
در نظر گرفتن ارزشهای خود بیماران نیز ممکن است مهم باشد. کاتلین کریل، متخصص اخلاق و عضو موسسه هوش مصنوعی انسانمحور استنفورد، گفت که پردازش هوش مصنوعی میتواند مانند رادیو تنظیم شود تا رویکردهای بیمار را منعکس کند. سیستمی را تصور کنید که در آن، الگوریتمی مبتنی بر هوش مصنوعی تصمیمهای پزشکی را توصیه میکند. هر بیمار میتواند با توجه به نیازها و باورهای فردی خود به پرسشهای خاصی پاسخ دهد؛ از جمله: «آیا ترجیح میدهید برای درمان یک تومور خوشخیم ریسک عوارض جراحی را به جان بخرید تا خطر نادیده گرفتن تومور سرطانی را؟» سپس سیستم متناسب با آنها تنظیم میشود. به فردی که ترجیح میدهد هر بار تحت عمل جراحی قرار گیرد، روشهای تهاجمی بیشتر توصیه خواهد شد. برای کسی که بهوضوح به سیستم گفته است که رویکردی بدون دخالت و دست زدن [به تومور] را ترجیح میدهد، راهحلهای کمتر تهاجمی برای مشکلات سلامتی در اولویت قرار خواهد داد.
کریل میگوید: «بیماران شایسته آناند که ارزشهایشان در این بحث و در الگوریتمها منعکس شود. افزودن درجهای از حمایت از بیمار گامی مثبت در تکامل هوش مصنوعی در زمینه تشخیص پزشکی خواهد بود.»
شاید بشود استدلال کرد که به کارگیری چنین سیستمهایی در یک محیط پزشکی ایده خوبی است. با همه این اوصاف، چرا باید تنها به قضاوت یک پزشک تکیه کنیم و نه بر دانش انباشتی هزاران [پزشک] که از طریق یک سیستم مبتنی بر هوش مصنوعی ارائه میشود؟
آیا هوش مصنوعی میتواند هنرمند باشد؟
در عرصههای دیگر، ما احتمالا کارها را کمتر به ماشینها واگذار میکنیم. هنر هنوز به عنوان قلمرو انسان، به چشم یک گریز و یک ماجراجویی اساسا انسانی دیده میشود. آیا میتوان هنر را به طور معناداری با هوش مصنوعی خلق کرد؟
این هفته، از خدمات تولید تصویر اوپنایآی به نام «دال–ئی» (DALL-E) خواستم تصاویری از شهرها و شهرکهای مختلفی که در آنها زندگی کردهام، به سبک هنرمندان مختلف ایجاد کند. دال–ئی ساوت شیلدز را به سبک ادوارد هاپر، لستر را از نگاه کاراواجو، لندن را به سبک دیوید هاکنی و نیویورک سیتی را به سبک روتکو نقاشی کرد. باحال به نظر میرسید. توییتش کردم.
مدام در این فکر بودم که از دال–ئی بخواهم از مکانهایی که در آن زندگی کردهام، به سبک هنرمندان مختلف تصویر بسازد.
ساوت شیلدز – ادوارد هاپر
چیزیک – دیوید هاکنی
لستر – کاراواجو
ادینبرا – پیکاسو
– دیوید مکلین (@GeordieStory) ۹ دسامبر ۲۰۲۲
I have become obsessed with asking DALL-E to create images of places I have lived, in the styles of various artists.
— David MacLean (@GeordieStory) December 9, 2022
South Shields - Edward Hopper
Chiswick - David Hockney
Leicester - Caravaggio
Edinburgh - Picasso pic.twitter.com/BKr5aNDL6J
اینها تقلید بودند؛ هرچند تقلیدهایی هوشمندانه اما به هر حال تقلید بودند. تصور چنین دنیایی سخت است که در آن، هنر اصیل هر چند زیبا، اگر تولید هوش مصنوعی باشد، ارزش بیشتری دارد تا زمانی که یک فرد آن را تولید کرده باشد. بخشی از لذت و فهم و ارج نهادن به یک نقاشی مسلما نحوه ارتباط ما با هنرمند است.
کانتیزر مشکل دیگری را پیشبینی میکند: اتهام اندیشهدزدی یا محتواربایی. اگر بتوان هر سبکی را با کلیک یک دکمه کپی کرد، وقتی هوش مصنوعی بتواند آن را یاد بگیرد و با یک تککلیک بازتولید کند، آیا سالها تلاش یک نفر برای بهبود کار خود، چه نقاشی باشد، چه سبک کتاب کمیک، چه طراحی دیجیتال یا انیمه باشد، نابود میشود؟ سالها تلاش یک نفر برای بهبود کار خود، چه نقاشی باشد، یک سبک کتاب کمیک، طراحی دیجیتال یا انیمه نابود میشود. «شما همچنین میتوانید از یک انسان بخواهید که به سبک یک نفر نقاشی کند، درست است؟ من فکر میکنم این چیزی است که ما بهطور کلی آن را خوب میدانیم، اما نوعی پرسش وجود دارد: [دالئی] واقعا چقدر کپی میکند؟ من فکر میکنم که اینک، قوانین ما واقعا برای این موضوع وضع نشدهاند.»
گالری بیتفرمهای استیون ساکس در شهر نیویورک این ماه نمایشگاهی دارد که منحصرا آثاری را که با هوش مصنوعی یا با الهام از هوش مصنوعی خلق شدهاند، به نمایش میگذارد. او به سیانان گفت که هوش مصنوعی یک «شریک عالی باخلاقیت» است و به سانفرانسیسکو استاندارد افزود: «من فکر میکنم مبنای دالئی غافلگیر کردن است. زمانی که به این فکر میکنید که دالئی چگونه تنها با استفاده از عبارات کلیدی برگرفته شده از هنرمند، خلق شده است، همهچیز خیلی فوقالعاده است.»
اما در ازای هر آدم پرشوقوذوق مانند ساکس، تعدادی افراد بدبین وجود دارند. بهویژه هنرمندان دیجیتال با این استدلال که معیشت آنها در معرض تهدید قرار گرفته است و از طریق تقلید الگوریتمی، آثارشان عملا دزدیده میشود، با استفاده از هوش مصنوعی در ساخت تصویر مخالفت کردهاند.
یکی از هنرمندان دیجیتال به بازفیدنیوز گفت: «هنرمندان هنر هوش مصنوعی را دوست ندارند، زیرا این برنامهها به شکلی غیراخلاقی با استفاده از پایگاههای داده هنری متعلق به هنرمندانی آموزش داده میشوند که این هنرمندان اجازه و موافقت خود [برای حق استفاده از آن] را اعلام نکردهاند. این در مورد دزدی است.»
کانیتزر فکر نمیکند که هوش مصنوعی لزوما بهتنهایی تولید چیزی را که ما به عنوان هنر میشناسیم شروع کند اما «من قطعا فکر میکنم که افراد همراه با هوش مصنوعی قادر خواهند بود هنر تولید کنند.» او میافزاید که ما قرنها درباره کمکهای فناوری به هنر بحثهایی داشتیم: «عکاسی؛ احتمالا یک واکنش اولیه به عکاسی وجود داشت. شما فقط کلیک میکنید و درست در همان لحظه طبیعت را مشاهده میکنید. این طبیعت است که کار را انجام میدهد. این شما نیستید که کار را انجام دهید... و من فکر میکنم اینجا هم مشابه همین است.»
«من فکر میکنم تا اندازهای، کاملا واضح است که شما واقعا میتوانید با آگاه بودن در خصوص نحوه استفاده از این سیستمها و چیدن چیزی کنار هم، هنر خلق کنید.»
کانتیتزر میگوید اما پس از آن، چقدر از اعتبار این کار را بابت کمک به هوش مصنوعی میدهید؟ کانیتزر میگوید: «ما به دوربین همراه با عکاس اعتبار نمیدهیم، از آنجایی که شاهد آنیم که کمی از اعتبار کار به سیستم هوش مصنوعی داده میشود» به ناچار، به پرسش خودآگاهی و توانایی احساس و ادراک بازمیگردیم.
ایلان ماسک که دیگر عضو هیئت مدیره اوپنایآی نیست، رسما اعلام کرده بود که اعتمادش به این شرکت از نظر امنیت در زمانی که آنجا بود، «بالا» نبود. او اخیرا اعتراف کرد که چتجیپیتی «خیلی خوب» است اما هشدار داد: ما با هوش مصنوعی قوی و خطرناک فاصله چندانی نداریم.
کانیتزر پیشنهاد میکند که تصمیمگیری در خصوص اینکه چگونه یک هوش مصنوعی انسانی شده است به هیچ فردی بستگی ندارد. او آن دسته از مسائل فلسفی مربوط به فردیت در آینده را پیشبینی میکند: «حتی اگر ما پژوهشگران هوش مصنوعی و شاید فیلسوفان موافق باشیم که این چیزها احتمالا آگاهانه نیستند، افراد دیگر ممکن است آشکارا شروع به مخالفت کنند و بگویند، خب، ببین این چطور با من حرف میزند. من واقعا نمیتوانم باور کنم که اکنون با یک موجود آگاه صحبت نمیکنم.» او پیشنهاد میکند که در این نوع بحثها، هیچ یک از طرفین بهروشنی درست یا نادرست نخواهند بود. اگر بخواهیم مشارکت معناداری داشته باشیم، باید با بودن در ناحیه بینابینی و خاکستری راحت باشیم.
© The Independent