مجله نیچر: چتباتهای هوش مصنوعی به مرور زمان غیردقیقتر میشوند
اکوایران: یک تحقیق جدید نشان میدهد چتباتهای هوش مصنوعی بهمرور زمان پاسخهای غیردقیق بیشتری در اختیار کاربران قرار میدهند.
به گزارش اکوایران، یک مطالعه تحقیقاتی اخیر با عنوان «مدلهای زبانی بزرگتر و قابل آموزشتر کمتر قابل اعتماد میشوند» در مجله علمی نیچر نشان داد که چتباتهای مبتنی بر هوش مصنوعی با عرضه مدلهای جدیدتر، با گذشت زمان اشتباهات بیشتری مرتکب میشوند.
به نوشته کوین تلگراف، لکسین ژو، یکی از نویسندگان این مطالعه، این نظریه را مطرح کرد که از آنجایی که مدلهای هوش مصنوعی همواره برای ارائه پاسخهای قابل باور بهینه شدهاند، پاسخهای ظاهرا صحیح اولویتبندی میشوند و صرف نظر از دقت، در اختیار کاربر قرار میگیرند.
این موضوع که به اصطلاح «توهمات هوش مصنوعی» نامیده میشود، با گذشت زمان تمایل به پیچیدهتر شدن دارند؛ یک پدیده تشدید شده با استفاده از مدلهای بزرگ زبان قدیمیتر برای آموزش مدلهای بزرگ زبان جدیدتر که منجر به فروپاشی مدل» میشود.
ماتیو روی، سردبیر و نویسنده، به کاربران هشدار داد که بیش از حد به این ابزارها تکیه نکنند و همواره به بررسی نتایج تولید شده توسط هوش مصنوعی بپردازند.
او گفت: «حالیکه هوش مصنوعی میتواند برای تعدادی از وظایف مفید باشد، مهم است که کاربران اطلاعاتی را که از مدلهای هوش مصنوعی دریافت میکنند، تأیید کنند. بررسی حقایق باید جزئی از فرآیند هنگام استفاده از ابزارهای هوش مصنوعی باشد. این امر درباره چتباتهای خدمات مشتری، پیچیدهتر میشود.»
ماتیو روی همچنین اعلام کرد: «اغلب هیچ راهی برای بررسی اطلاعات وجود ندارد جز پرسیدن از خود چتبات.»
مشکل سرسخت توهمات هوش مصنوعی
پلتفرم هوش مصنوعی گوگل در فوریه 2024 پس از اینکه شروع به تولید تصاویر غیردقیق کرد، مورد تمسخر قرار گرفت. نمونههایی از این موارد شامل تصویرسازی مردم رنگینپوست به عنوان افسران نازی و ایجاد تصاویر نادرست از چهرههای تاریخی شناخته شده بود.
متأسفانه، حوادثی مانند این با تکرار روند فعلی هوش مصنوعی و مدلهای بزرگ زبانی، بسیار رایج است. مدیران اجرایی این صنعت از جمله جنسون هوانگ، مدیرعامل انویدیا، برای کاهش توهمات هوش مصنوعی پیشنهاد کردهاند که مدلهای هوش مصنوعی را به انجام تحقیق و ارائه منابع برای هر پاسخ داده شده به کاربر مجبور کنند.
با وجود اینکه این اقدامات در حال حاضر در محبوبترین مدلهای هوش مصنوعی وجود دارند، اما مشکل توهمات هوش مصنوعی همچنان ادامه دارد.
اخیرا در سپتامبر، مت شوما، مدیرعامل شرکت «هایپر رایت اِیآی» اعلام کرد که مدل جدید 70B این شرکت از روشی به نام “تنظیم بازتاب” استفاده میکند که ظاهرا به مدل هوش مصنوعی راهی برای یادگیری از طریق تجزیه و تحلیل اشتباهات خود و تنظیم پاسخها ارائه میدهد.
منبع اکو ایران