گوگل به افراد امکان میدهد چیزهایی را جستوجو کنند که حتی نمیتوانند آنها را توصیف کنند.
ویژگی جدید که «گوگل لنز مالتی سرچ» (Google Lens Multisearch) نام دارد به این معنا است که افراد قادر خواهند بود برای توضیح چیزی که دنبالشاند، از یک تصویر بهره بگیرند.
مثلا اگر کسی لباسی پیدا کرد که از آن خوشش میآمد اما به جای رنگ زرد، رنگ سبزش را میخواست، میتواند آن تصویر را بارگذاری کند و به گوگل بگوید که دنبال «سبز» بگردد. اگر گیاهی دارید که میخواهید بفهمید چگونه باید از آن مراقبت کنید، اما نامش را نمیدانید، میتوانید از آن عکسی بگیرید و «راهنمای مراقبت» را اضافه کنید تا بفهمید چطور باید با آن رفتار کنید.
گوگل این ابزار را «روشی کاملا جدید برای جستوجو» خواند و گفت که این بخشی از تلاشی است که مردم را ترغیب کند «از کادر جستوجو فراتر بروند و در باره آنچه میبینند سوال کنند».
Read More
This section contains relevant reference points, placed in (Inner related node field)
هوش مصنوعی بهروزرسانیهای گوگل از این ویژگی پشتیبانی میکند تا برای مردم یافتن چیزی را که دنبال آناند، سادهتر کند.
این ویژگی، در آینده با «امیوام» (MUM)، یا مدل یکپارچه چندکاره (Multitask Unified Model) بهبود مییابد؛ فناوری جدیدی که به گفته گوگل، جستوجو را بسیار آسانتر میکند.
چند وقتی است که گوگل روی این ابزار کار میکند و تعدادی از تغییرات ایجاد شده روی آن را سال گذشته در رویداد «سرچ آن» (Search On) منتشر کرد.
اکنون این ویژگی روی بتا عرضه میشود و میتوان آن را در نسخه آیاواس و اندروید برنامه (اپ) پیدا کرد. البته این امر فعلا فقط برای کاربران در ایالات متحده آمریکا در دسترس خواهد بود.
کاربران برای یافتن آن کافی است برنامه را باز کنند تا گزینه استفاده از دوربین یا صدای خود و همینطور متن ارائه شود.
© The Independent