آیا چتباتهای هوش مصنوعی واقعاً بدتر میشوند؟!
کاهش محبوبیت چتباتها
در ماههای اخیر، علاقه مردم به چتباتها کمتر شده و این موضوع باعث کاهش درآمد شرکتهایی شده که در زمینه هوش مصنوعی فعالیت میکنند. یک مقاله علمی با عنوان “مدلهای زبانی بزرگ و قابل آموزش کمتر قابل اعتماد میشوند” نشان داده است که چتباتهای هوش مصنوعی بیش از پیش اشتباه میکنند.
خطاهای قابل اعتماد نبودن
پاسخهای غلط اما قانعکننده
یکی از نویسندگان این مطالعه، لکسین ژو، بر این باور است که چتباتها طوری طراحی شدهاند که پاسخهایی بدهند که قانعکننده به نظر برسند، حتی اگر درست نباشند. این پاسخهای نادرست که به “هذیانهای هوش مصنوعی” معروف هستند، به مرور زمان بیشتر شده و به چیزی به نام “فروپاشی مدل” منجر میشوند.
لزوم بررسی اطلاعات
متیو روی، نویسنده و ویراستار، هشدار میدهد که نباید بیش از حد به این ابزارهای هوش مصنوعی اعتماد کنیم. بررسی دوباره اطلاعاتی که این چتباتها ارائه میدهند بسیار مهم است، چرا که اغلب راهی برای اطمینان از صحت پاسخها وجود ندارد، جز پرسش دوباره از خود چتبات.
پیشرفتهای جدید در مدلها
در سپتامبر اخیر، مت شومر، مدیر عامل HyperWrite AI، اعلام کرد که مدل جدید آنها با ۷۰ میلیارد اتصال، از تکنیکی به نام “تنظیم توسط بازتاب” استفاده میکند. این روش به این هوش مصنوعی اجازه میدهد که از اشتباهات خود بیاموزد و پاسخهای بهتری ارائه کند.
در نهایت، با اینکه چتباتهای هوش مصنوعی هر روز محبوبتر میشوند، اما میزان خطاهای آنها هم افزایش یافته است. بنابراین، دقت در بررسی و تائید اطلاعاتی که ارائه میدهند بسیار حیاتی است، چرا که ممکن است همیشه درست نباشند.
درباره نویسنده
فرید کریمی
ثبت نظر جدید