محققان هوشمصنوعی درون یک سامانه هوش مصنوعی اِیآی (AI) یاختههایی عصبی یافتهاند که قبلاً فقط در مغز انسان یافت میشد.
محققان شرکت نوآفرین اوپنایآی که ایلان ماسک پایهگذار آن است، این یاختههای عصبی را که عصبشناسان یاخته عصبی چندگرهای مینامند، در حین بررسی کارکردهای درونی و بغرنج یکی از پیشرفتهترین شبکههای عصبی خودشان یافتند.
این کشف در سامانه دید عاممنظورهای به نام کلیپ انجام گرفته است که براساس دادگان پیچیدهای آموزش دیده است تا اشخاص و اشیا را در محیطهایی انتزاعی مثل پویانماییها یا تندیسها تشخیص دهد.
اوپنایآی در وبنوشتی در این باره توضیح داده است: «این یاختههای عصبی را در یک سامانه کلیپ یافتیم که در برابر نمایش واقعی، نمادین یا مفهومی یک مضمون، واکنش مشابهی داشت. یاخته عصبی چندگرهای که در سامانه کلیپ کشف کردیم، سرنخی از سازوکار مشترک سامانههای دید مصنوعی و طبیعی، یعنی انتزاع، به دست میدهد.»
یاخته عصبی چندگرهای را نخستین بار در سال ۲۰۰۵ در مغز انسان کشف کردند و متوجه شدند که هر یاخته عصبی منفردی، میتواند مضمون مشترک خوشههای مفاهیم انتزاعی برگرفته از اطلاعات حسی را تشخیص دهد.
Read More
This section contains relevant reference points, placed in (Inner related node field)
در مثال، تصویر یک فرد سرشناس را یک یاخته عصبی به تنهایی تشخیص میدهد و نیازی به همکاری میلیونها یاخته عصبی نیست. یعنی در مغز ما یک یاخته عصبی متولی هر عضو خانواده، دوست یا فرد سرشناسی است که او را میشناسیم و در برابر عکس، نقاشی و نام نوشته شده او واکنش نشان میدهد، نه اشخاص دیگر.
طبق کشف محققان اوپنایآی، یاخته عصبی مصنوعی نیز مانند همتای طبیعیاش «در برابر هیجانات، جانوران، و سرشناسان واکنش نشان میدهد.»
یکی از این یاختههای عصبی که به آن «مردعنکبوتی» نام دادهاند «شباهت چشمگیری» به یاختههای عصبیای دارد که نخستین بار در تحقیق سال ۲۰۰۵ مطرح شده بود.
طبق نوشته این محققان، این یاخته عصبی «به تصویر عنکبوت، کلمه مکتوب عنکبوت، و لباس یا تصویر شخصیت کارتونی مردعنکبوتی واکنش نشان میدهد.»
شبکههای عصبی قابلیت بالقوه عظیمی برای توسعه سامانههای پیشرفته هوش مصنوعی دارند و تا کنون نیز تحولات دورانسازی در حوزههایی مثل تشخیص چهره، دستیار دیجیتالی و وسایل نقلیه خودران پدید آوردهاند.
این شبکهها از گرهها یا یاختههای عصبی تشکیل شدهاند که برای پردازش داده از معماری سامانههای عصبی طبیعی سرمشق گرفتهاند.
ایراد چنین فناوری نیرومندی این است که دشوار بتوان فهمید چرا تصمیم خاصی میگیرد یا چطور نتیجهگیری خاصی میکند.
بنابراین، ممکن است پیامدهای ناخواستهای رخ دهد. مثلاً بر اساس دادگان وسیعی که برای آموزش به کار میگیرند، به تداعیهایی جنسیتزده یا نژادپرستانه راجع به مقولههایی خاص برسند.
مدل اوپنایآی بر اساس زیرمجموعهای برگزیده از اینترنت آموزش دیده است، اما همچنان برخی سوگیریها و تداعیها روی آن بار میشود که میتواند در کاربردهای تجاری آن زیانآفرین باشد.
اوپنایآی میگوید: «مثلاً یاختهای عصبی دیدهایم که نام خاورمیانه، تروریسم را برای آن تداعی میکند و آمریکای لاتین، مهاجرت را برای یاختهای عصبی تداعی میکند. حتی یاختهای عصبی دیدهایم که تیرهپوستان و گوریلها تداعی یکسانی برای آن ایجاد میکند که برای ما خوشایند نیست، و بازتابی از برچسبگذاریهای قبلی عکسها در مدلهای دیگر است.»
ابزارهایی که این محققان برای شناخت این گونه شبکههای عصبی ساختهاند، میتواند به جلوگیری از مشکلات آینده کمک کند.
© The Independent