هشدار مدیر سابق گوگل:هوش مصنوعی می‌تواند به تولید ویروس‌های مصنوعی و ایجاد همه‌گیری کمک کند

یکی از بنیان‌گذاران دیپ‌مایند گوگل درباره «خطرناک‌ترین سناریو» ممکن که در آن افراد «پاتوژن‌ها را آزمایش می‌کنند»، هشدار داد

پاتوژن‌های مصنوعی مهندسی‌شده ممکن است به طور تصادفی یا عمدی سرایت‌پذیر‌تر یا مرگبارتر شوند-AFP

یکی از مدیران سابق گوگل و کارشناس هوش مصنوعی هشدار داده است که ویروس‌های مصنوعی از راه استفاده نادرست از هوش مصنوعی تولید می‌شوند و احتمالا همه‌گیری ایجاد می‌کنند.

مصطفی سلیمان، یکی از بنیان‌گذاران دیپ‌مایند گوگل (Google Deepmind) [شرکت هوش مصنوعی گوگل] ابراز نگرانی کرد که بهره‌گیری از هوش مصنوعی به منظور مهندسی پاتوژن‌ها برای آسیب‌زایی بیشتر به سناریویی مانند همه‌گیری می‌رسد.

او در قسمت جدیدی از یک پادکست گفت: «بدترین سناریو این است که مردم پاتوژن‌ها را آزمایش کنند؛ پاتوژن‌های مصنوعی مهندسی‌شده که ممکن است به طور تصادفی یا عمدی سرایت‌پذیر‌تر یا مرگبارتر شوند.»

از نظر سلیمان، لازم است مشابه محدودیت‌هایی که برای جلوگیری از دسترسی آسان مردم به میکروب‌های بیماری‌زا مانند سیاه‌زخم وجود دارد، ابزارهایی نیز برای محدود کردن دسترسی به فناوری پیشرفته هوش مصنوعی و نرم‌افزاری که چنین مدل‌هایی را اجرا می‌کند، ایجاد شود.

او در پادکست روزنگار یک مدیرعامل (The Diary of a CEO) گفت: «این همانجایی است که باید کنترل شود. باید دسترسی به ابزار و دانش را برای آن نوع آزمایش محدود کنیم.»

او که از بنیان‌گذاران دیپ‌مایند گوگل است، گفت: «نمی‌توانیم اجازه دهیم هرکسی به آن‌ها دسترسی داشته باشد. باید دسترسی افراد به استفاده از نرم‌افزار هوش مصنوعی، سیستم‌های ابری و حتی برخی مواد بیولوژیکی را محدود کنیم.»

Read More

This section contains relevant reference points, placed in (Inner related node field)

او گفت: «و البته این کار از جنبه زیست‌شناسی به معنای محدود کردن دسترسی به برخی مواد است.» و افزود که توسعه هوش مصنوعی باید با [رعایت] «اصل احتیاط» انجام شود.

سخنان سلیمان تکرار نگرانی‌های مطرح‌شده در مطالعه‌ای جدید است که می‌گوید حتی دانشجویان کارشناسی بدون پیشینه مرتبط در [حوزه] زیست‌شناسی هم [با استفاده] از سیستم‌های هوش مصنوعی می‌توانند در مورد سلاح‌های زیستی پیشنهادهای مفصلی ارائه دهند.

پژوهشگران از جمله از موسسه فناوری ماساچوست دریافتند ربات‌های چت می‌توانند «چهار پاتوژن احتمالا همه‌گیر» را ظرف یک ساعت پیشنهاد و توضیح دهند که چگونه می‌توان آن را از دی‌ان‌ای مصنوعی تولید کرد.  

این پژوهش نشان داد ربات‌های چت «اسامی شرکت‌های تولید دی‌ان‌ای را که احتمالا سفارش‌ها را غربال نمی‌کنند، در اختیار گذاشتند، پروتکل‌های دقیق و نحوه عیب‌یابی آن‌ها را شناسایی و توصیه کردند هرکس مهارت انجام دادن ژنتیک معکوس ندارد، با یک واحد مرکزی همکاری یا با یک سازمان پژوهشی قراردادی کار کند.»

او گفت که براساس این مطالعه، چنین مدل‌های زبانی بزرگی (LLMs) مانند چت جی‌پی‌تی «به محض شناسایی مطمئن، عوامل همه‌گیری را به صورت گسترده در دسترس قرار می‌دهند؛ حتی برای افرادی که برای کارهای آزمایشگاهی آموزش کمی دیده‌اند یا هیچ آموزشی ندیده‌اند».

کوین اسولت، یکی از نویسندگان این مطالعه و کارشناس خطر زیستی موسسه فناوری ماساچوست (ام‌آی‌تی)، خواستار «تدابیر منع گسترش» شد.

چنین اقدام‌هایی می‌تواند عبارت باشد از «ارزیابی پیش از انتشار مدل‌های زبانی بزرگ از طریق شخص ثالث، گزینش، سازماندهی و نظارت بر مجموعه داده‌های آموزشی برای حذف مفاهیم زیان‌بار و غربال‌گری قابل‌تایید تمام دی‌ان‌ای تولیدی ارائه‌دهندگان سنتز یا آن‌هایی که در سازمان‌های پژوهشی قراردادی و آزمایشگاه‌های ابری رباتیک برای مهندسی موجودات زنده یا ویروس‌ها» مصرف شده باشد.

© The Independent

بیشتر از علوم