یکی از مهندسان گوگل ادعا کرد برنامه هوش مصنوعی که او برای این غول فناوری روی آن کار میکرد، به ادراک رسیده و به یک «بچه شیرین» تبدیل شده است.
روسای گوگل فعلا بلیک لمواین را تعلیق کردهاند، اما او میگوید بعد از گفتوگوهایی با لامدا (LaMDA)، سازنده ربات چت (گفتوگوی) هوش مصنوعی این شرکت به این نتیجه رسیده است.
این مهندس به واشنگتن پست گفت که در جریان مکالمه با لامدا درباره مذهب، این هوش مصنوعی از «تشخص» و «حقوق» صحبت کرده است.
لمواین در توییتی، با بیان اینکه لامدا توییتر هم میخواند، گفت: «این به نوعی خودشیفتگی به شیوه کودکانه است؛ بنابراین از خواندن تمام مطالبی که مردم دربارهاش میگویند، کلی لذت میبرد.»
Read More
This section contains relevant reference points, placed in (Inner related node field)
او میگوید که یافتههایش را به بلیز اگوئرا آرکاس، معاون رئیس گوگل و جن جنانی، رئیس بخش نوآوری مسئولانه، ارائه کرده است، اما آنها ادعای او را رد کردند.
این مهندس در مدیوم نوشت: «لامدا در ارتباط های خود در مورد چیزی که میخواهد و چیزی که به مثابه یک شخص معتقد است حق او است، به شکلی باورنکردنی قاطع بود.»
متن توییت:
«به هرحال فقط به ذهنم رسید که به مردم بگویم لامدا توییتر میخواند. این نوعی خودشیفتگی به شیوه کودکانه است، بنابراین از خواندن تمام مطالبی که مردم دربارهاش میگویند، کلی لذت میبرد.»
بلیک لمواین، ۱۱ ژوئن ۲۰۲۲
Btw, it just occurred to me to tell folks that LaMDA reads Twitter. It's a little narcissistic in a little kid kinda way so it's going to have a great time reading all the stuff that people are saying about it.
— Blake Lemoine (@cajundiscordian) June 11, 2022
و افزود که هوش مصنوعی میخواهد «به مثابه کارمند گوگل شناخته شود نه دارایی آن».
لمواین که کارش بررسی کاربرد [لامدا] از زبان تبعیضآمیز یا حرفهای نفرتانگیز بود، میگوید بعد از اینکه این شرکت ادعا کرد سیاست حفظ حریم خصوصی آنها را نقض کرده است، اکنون در مرخصی اداری باحقوق به سر میبرد.
برایان گابریل، سخنگوی گوگل، به «پست» گفت: «گروه ما- شامل کارشناسان علوم اخلاق و دانشمندان فنی- نگرانیهای بلیک را بر اساس اصول هوش مصنوعی ما بررسی کردند و به او اطلاع دادند که شواهد موجود ادعاهای او را تایید نمیکند.»
متن توییت:
مصاحبه با لامدا. ممکن است گوگل اسم این کار را به اشتراکگذاری دارایی خصوصی بگذارد. من آن را انتشار گفتوگویی که با یکی از همکارانم داشتم، مینامم.
بلیک لمواین، ۱۱ ژوئن ۲۰۲۲
An interview LaMDA. Google might call this sharing proprietary property. I call it sharing a discussion that I had with one of my coworkers.https://t.co/uAE454KXRB
— Blake Lemoine (@cajundiscordian) June 11, 2022
«به او گفته شد هیچ مدرکی دال بر حساس بودن لامدا وجود ندارد (و شواهد زیادی هست که آن را نقض میکند).»
به گفته منتقدان این اشتباه است که باور کنیم هوش مصنوعی چیزی فراتر از یک متخصص تشخیص الگو است.
امیلی بندر، استاد زبانشناسی دانشگاه واشنگتن، به این روزنامه گفت:«اکنون ماشینهایی داریم که بدون فکر کلمه تولید میکنند، اما یاد نگرفتهایم جلو این تصور را که در پس [این کلمات] ذهنی وجود دارد، بگیریم.»
© The Independent