اگر باور ندارید که سرعت سرسامآور رشد چتباتهای هوش مصنوعی شرکتهای بزرگ حوزهی فناوری، امکان تخریب اکوسیستم اطلاعات وب را دارد بهتر است مواردی را مدنظر قرار دهید. درحال حاضر اگر از بینگ جدید بپرسید آیا چتبات گوگل بارد خاموش شده است یا خیر، به شما پاسخ مثبت خواهد داد و بهعنوان منبع پاسخ خود به مقالهای خبری اشاره میکند که حاوی یک توییت است؛ توییتی که در آن یک کاربر از بارد پرسیده بود چه زمانی خاموش خواهد شد و بارد در پاسخ میگوید قبلاً خاموش شده و این پاسخ را با استناد به پست طنزآمیز یکی از کاربران در توییتر ارائه داده است. ازطرف دیگر شخصی از ChatGPT برای نوشتن خبر جعلی مربوط به این اتفاق استفاده کرده که همین موضوع نشان از ایجاد زنجیرهی اطلاعات نادرست در وب دارد.
به گزارش ورج، چتبات بینگ مایکروسافت اکنون اصلاح شده است و در صورتی که از آن پپرسید گوگل بارد چه زمانی خاموش خواهد شد، پاسخ درستی به این سؤال ارائه خواهد داد و اعلام میکند چتبات مذکور همچنان فعال است. این موضوع نشان میدهد که سیستمهای هوش مصنوعی قابل اصلاح هستند یا انعطافپذیری آنها به حدی است که میتوانند در صورت ارائهی اطلاعات نادرست، این مشکل را برطرف کنند.
بیشتر بخوانید:
-
رفتار عجیب فیلها؛ دزدی در روز روشن!/ عکس
-
دستکاری ژنتیک فیل برای بازگرداندن ماموتها!/ عکس
-
اولین تصاویر از استفاده موشک های ضدتانک تاو در جنگ اوکراین/ عکس
بهعبارت دیگر آنچه درحالحاضر با آن مواجه شدهایم، بازی بزرگ گردش اطلاعات نادرست میان چتباتهای هوشمند مصنوعی است که امکان سنجش منابع خبری قابلاعتماد و اطلاعات واقعی را ندارند. در این مورد خاص همهچیز از توییت شوخی HackerNews شروع شد که موضوع آن را در بالا توضیح دادیم.
اگرچه چتباتهای هوشمند مصنوعی تواناییهای خیرهکنندهای دارند اما همچنان در دستهبندی خبرها و اطلاعات قابلاطمینان و واقعی با اطلاعات نادرست در فضای وب مشکل دارند. درواقع دسترسی هوش مصنوعی به اینترنت باعث میشود دنبالهای از اطلاعات نادرست و غیرقابل اعتماد در سرتاسر وب بهراه انداخته شود؛ معضل بزرگی که نمیتوان آن را بهطور کامل تصور کرد. دلیل ایجاد چنین شرایطی، رقابت بسیار زیاد گوگل، مایکروسافت و OpenAI در حوزهی هوش مصنوعی است زیرا هرکدام از این شرکتها قصد دارند بخش بیشتری از این بازار را دراختیار خود داشته باشند.
شرکتهای بزرگ فعال در حوزهی هوش مصنوعی در صورت بروز خطاهایی مثل ارائهی اطلاعات نادرست، اعلام میکنند که درحال آزمایش سیستمهای خود هستند و چتباتهای آنها قطعاً عملکردی شبیه موتور جستوجو ندارند. بههرحال ما میدانیم مردم از این ابزارها برای چه اهدافی استفاده میکنند و پیش از این نیز بارها شاهد ارائهی اطلاعات نادرست ازطرف چتباتهای هوش مصنوعی بودهایم. اکنون نیز بهنظر میرسد این چتباتها با استناد به اشتباهات یکدیگر، باعث ایجاد زنجیرهای از اطلاعات نادرست در فضای وب میشوند.
227321