ابزار جدید گوگل که هوش مصنوعی جدیدی است که «مشاوره زندگی» ارائه میدهد، در حالتوسعه بخشی از تلاشهای این شرکت فناوری برتر برای پیشبرد پژوهشهایی در زمینه سیستمهای هوش مصنوعی مولد مانند چتجیپیتی در رقابت با رقبایی از جمله مایکروسافت و اوپنایآی است.
نخستین بار نیویورک تایمز گزارش داد که گروههای هوش مصنوعی گوگل در حال آزمایش استفاده از ابزارهای جدید از جمله پشتیبانهای رباتچت مانند چتجیپیتی اوپنایآی و بارد خود این شرکت بهمنزله مربی زندگی شخصیاند که در موضوعهایی از تصمیمگیری شغلی گرفته تا مشکلات روابط شخصی مشاوره زندگی ارائه میدهد.
بر اساس همین گزارش، این شرکت برتر فناوری برای ارزیابی رباتچت جدید «مربی زندگی» با اسکیل ایآی (Scale AI)، شرکت آموزش هوش مصنوعی، همکاری کرده است.
به نوشته نیویورک تایمز، بیش از ۱۰۰ کارشناس با مدرک دکترا در زمینههای مختلف نیز این ربات را سختگیرانه امتحان میکنند.
از زمان افزایش محبوبیت چتجیپیتی اوپنایآی، بسیاری از شرکتها و خدمات فناوری از جمله گوگل، فیسبوک و اسنپچت تلاش کردهاند برای تعامل بهتر با کاربران نسخههایشان را از این فناوری هوش مصنوعی مولد تولید کنند و پاسخهایی شبیه به انسان ارائه دهند.
با این حال برخی از این ابزارهای هوش مصنوعی در زمینه اعتبار پاسخهایشان و نیز مسائل مربوط به حریم خصوصی نگرانیهایی ایجاد کردهاند.
کارشناسان چندین نمونه از رباتچتهایی را که اطلاعات جعلی ارائه میدهند و عموما به آن «توهم هوش مصنوعی» گفته میشود، مشکلی که ممکن است برطرف نشود، مشخص کردهاند.
برای نمونه، یک موسسه غیرانتفاعی آمریکایی برای حمایت از افراد مبتلا به اختلال خوردن بعد از آنکه دریافت رباتچت هوش مصنوعیاش به جای کمک به مردم توصیههای مضر ارائه میدهد، مجبور به حذف آن شد.
کارشناسان هوش مصنوعی همچنان هشدار میدهند اگرچه چنین رباتچتهایی به بسیاری از سوالها پاسخهایی قانعکننده ارائه میدهند، اغلب اطلاعاتی را در اختیار کاربر میگذارند که مبنای حقیقی ندارد.
جدیدترین تلاش گوگل در استفاده از فناوری هوش مصنوعی برای ارائه مشاوره شخصیشده زندگی با بهرهگیری از رهنمودهای فعلی آن برای رباتچت بارد است که به کاربران هشدار میدهد از پاسخهای این ابزار هوش مصنوعی برای «مشاوره پزشکی، حقوقی، مالی یا سایر [مشاورههای] حرفهای» استفاده نکنند.
رهنمودهای بارد به کاربران هشدار میدهد که در مکالماتشان با این رباتچت «اطلاعات محرمانه یا حساس» وارد نکنند.
۲۲۷۲۲۷