دستیار صوتی الکسای آمازون به یک دختری ۱۰ ساله پیشنهاد کرد به عنوان بخشی از یک «چالش»، به خود شوک الکتریکی بدهد.
کریستین لیودال در توییتر نوشت که دستیار صوتی پس از درخواست دخترش برای یک چالش، این کار را پیشنهاد کرد.
الکسا پاسخ داد: «این چیزی است که من در وب پیدا کردم. چالش ساده است: شارژر تلفن را تا نیمه به پریز برق وصل کنید، سپس با یک پنی (سکه خرد) شاخکهای در معرض دید را لمس کنید.»
خانم لیودال گفت که او و دخترش داشتند «چالشهای فیزیکی» انجام میدادند و دخترش یکی دیگر میخواست.
او توییت کرد: «من همانجا بودم و مانند یک سگ نعره زدم: «نه، الکسا، نه!» دخترم میگوید که به هر حال خیلی باهوشتر از آن است که چنین کاری انجام دهد.
Read More
This section contains relevant reference points, placed in (Inner related node field)
آمازون میگوید که اکنون این چالش را از پایگاه داده خود حذف کرده است.
یکی از سخنگویان آمازون در بیانیهای گفت: «اعتماد به مشتری در مرکز هر کاری است که ما انجام میدهیم و الکسا برای ارائه اطلاعات دقیق، مرتبط و مفید به مشتریان طراحی شده است. به محض اطلاع از این خطا، برای رفع آن بهسرعت اقدام کردیم.»
دستیارهای صوتی مانند الکسا، گوگل اسیستنت (Google Assistant) و سیری (Siri) اطلاعات خود را از موتورهای جستوجوی رایج دریافت میکنند، اما توانایی بررسی موثر اطلاعات را ندارند، و به همین دلیل میتوانند نتایج نادرست یا توهینآمیز ارائه دهند.
در دسامبر ۲۰۲۰ مشخص شد که الکسا اظهارات توطئهآمیز و نژادپرستانه را تکرار میکند. در پاسخ به این سوال که آیا اسلام شر است، یکی از نتایجی الکسا ارائه کرد، این بود: «این چیزی است که من در وب پیدا کردم. به گفته [یک وبسایت]، اسلام دین شیطانی است.»
در سال ۲۰۱۸، دستیار صوتی سیری اپل فکر میکرد که دونالد ترامپ یک آلت تناسلی است، زیرا شخصی صفحه ویکیپدیا رئیسجمهوری وقت ایالات متحده را دستکاری کرده بود و سیری اطلاعات را از آنجا بیرون میکشید.
© The Independent