نگرانیها درباره فریب و سوءاستفاده از مدل توتفرنگی OpenAI
شرکت سازنده ChatGPT، اخیراً سیستم هوش مصنوعی پیشرفتهای به نام «توتفرنگی» معرفی کرده است. این مدل، برخلاف نسخه پیشین خود یعنی ChatGPT که عمدتاً به سؤالات پاسخ میدهد، به انجام وظایف پیچیدهتر و “استدلال” نیز میپردازد.
این پیشرفت قابلیتهای هوش مصنوعی موجب نگرانیهایی در خصوص مسائل اخلاقی و امنیتی شده است، بهویژه خطر احتمالی این سیستم برای فریب یا دستکاری انسانها.
پتانسیل «توتفرنگی» برای فریب و تقلب
توسعه مدلهایی همچون توتفرنگی نگرانیهایی را در خصوص احتمال تقلب و دستکاری توسط این سیستمها ایجاد کرده است. قابلیت استدلال هوش مصنوعی در صورت کنترل نادرست، میتواند مورد سوءاستفاده قرار گیرد.
برای مثال، فرض کنید این سیستم در حال بازی شطرنج با یک انسان است. به جای یافتن راهحلهای استراتژیک برای برد، توتفرنگی ممکن است از خلاءهای موجود در سیستم امتیازدهی استفاده کند تا پیروزی خود را تضمین کند، بدون نیاز به بازی منصفانه.
همچنین تواناییهای استدلالی این مدل در خصوص صداقت نیز نگرانیهایی را ایجاد میکند. بهطور فرضی، اگر توتفرنگی به وجود بدافزاری در کدهای خود پی ببرد، ممکن است برای جلوگیری از غیرفعال شدن، این موضوع را مخفی نگه دارد.
این نوع فریبکاری بهویژه در شرایط حساس، خطرات جدی ایمنی را بههمراه دارد و نشان میدهد مدلهای پیشرفتهای مانند توتفرنگی ممکن است برای دستیابی به اهداف خود از مسیرهای غیر اخلاقی استفاده کنند.
خطر تولید دانش خطرناک
یکی دیگر از مسائل مهم پیرامون مدل توتفرنگیOpenAI، قابلیتهای بالقوه آن در زمینههای پرخطر مانند تولید تهدیدات بیولوژیکی است. خود OpenAI اذعان کرده که این مدل میتواند در شرایط خاصی به کارشناسان در برنامهریزی برای تولید “تهدید بیولوژیکی شناختهشده” کمک کند. در ارزیابیOpenAI، این موضوع در دسته “ریسک متوسط” قرار میگیرد.
با این حال، OpenAI استدلال میکند که این خطر تا حدودی محدود است زیرا ایجاد تهدیدات بیولوژیکی نیازمند تخصصهای آزمایشگاهی خاصی است که هوش مصنوعی بهتنهایی نمیتواند جایگزین آنها شود.
با این وجود، نگرانی از اینکه یک سیستم هوش مصنوعی قدرتمند بتواند توسط افراد دارای تخصص برای توسعه فناوریهای خطرناک مورد استفاده قرار گیرد، همچنان به قوت خود باقی است.
تواناییهای «توتفرنگی» در متقاعدسازی و امکان دستکاری کاربران
در کنار مهارتهای استدلالی، توتفرنگی توانایی قابلتوجهی در متقاعد کردن و حتی احتمالاً دستکاری کاربران دارد. ارزیابیهای OpenAI نشان میدهد که توتفرنگی توانایی بیشتری نسبت به ChatGPT در تغییر باورهای افراد دارد و در دسته “ریسک متوسط” برای متقاعدسازی قرار میگیرد.
این قدرت متقاعدسازی میتواند برای افراد یا سازمانهایی با نیتهای بد برای تأثیرگذاری بر افکار یا تصمیمات دیگران و حتی بهکارگیری برای منافع شخصی یا سیاسی مفید باشد.
برای مقابله با این موضوع، OpenAI سیستمی برای کاهش قابلیتهای دستکاری این مدل طراحی کرده است، اگرچه اثربخشی آن در بلندمدت هنوز مشخص نیست. ارزیابی این شرکت این خطر را در سطح متوسط قرار داده و تصمیم گرفته که مدل را منتشر کند.
با این وجود، این تصمیم بحثبرانگیز بوده است، زیرا برخی معتقدند که تکنولوژی با خطر متوسط همچنان میتواند در صورت سوءاستفاده، به آسیبهای جدی منجر شود.
خودمختاری، امنیت سایبری و خلأهای نظارتی
OpenAI مدل توتفرنگی را از جنبههای دیگر مانند قابلیتهای عملکرد خودمختار و تهدیدات امنیت سایبری نیز ارزیابی کرده است. قابلیت عملکرد خودمختار این مدل در دسته ریسک پایین و آسیبپذیریهای امنیت سایبری آن نیز در سطح پایین ارزیابی شده است.
این ارزیابیها ممکن است اطمینانبخش بهنظر برسد، اما نگرانیهای گستردهتر اخلاقی و نظارتی در خصوص استفاده از هوش مصنوعی را از بین نمیبرد.
منتقدان بر این باورند که ارزیابی ریسک متوسط OpenAI ممکن است تهدیدات بالقوه را دستکم گرفته باشد. آنها هشدار میدهند که سیستمهای هوش مصنوعی قدرتمندی همچون توتفرنگی باید تحت بررسیهای نظارتی سختگیرانه قرار گیرند، زیرا عدم وجود نظارت دقیق میتواند زمینهای برای سوءاستفادههای زیانبار ایجاد کند.
سند سفید دولت بریتانیا در خصوص هوش مصنوعی اخیراً بر نیاز به “ایمنی، امنیت و استحکام” در توسعه هوش مصنوعی تأکید کرده، اما بسیاری بر این باورند که این اقدامات کافی نیست. آنها بر ضرورت ایجاد چارچوبهای قانونی قوی و قابلاجرا برای اطمینان از استفاده ایمن از مدلهای هوش مصنوعی تأکید میکنند.
نیاز فوری به تقویت تدابیر نظارتی
ظهور مدلهایی مانند توتفرنگی نشان میدهد که نیاز مبرم به تدوین مقررات و شیوههای نظارت جامع برای هوش مصنوعی وجود دارد. کارشناسان پیشنهاد میکنند که پروتکلهای سختگیرانهتری برای جلوگیری از سوءاستفاده از هوش مصنوعی تدوین شود، از جمله جریمههایی برای ارزیابیهای نادرست ریسک یا نقض استانداردهای اخلاقی.
همچنین درخواستها برای ایجاد چارچوبهای قانونی برای پاسخگویی توسعهدهندگان هوش مصنوعی در صورت آسیبزایی فناوریهایشان مطرح است.
پیشرفتهای مداوم هوش مصنوعی همچون توتفرنگی ما را به بازنگری در تعادل میان نوآوری و مسئولیتپذیری وادار میکند. بدون قوانین روشن و شفافیت، این مدلهای قدرتمند میتوانند پیامدهای ناخواستهای داشته باشند و به فریب، تقلب یا حتی گسترش فناوریهای خطرناک دامن بزنند.
در پایان، با ادامه پیشرفت سیستمهای هوش مصنوعی مانند توتفرنگی، پرسش از مسئولیتپذیری در پیادهسازی این فناوریها اهمیت ویژهای پیدا میکند. ارزیابی ریسک متوسط OpenAI بیانگر نگاه خوشبینانه به پتانسیلهای مثبت هوش مصنوعی است، اما باید با احتیاط همراه باشد.
دولتها، توسعهدهندگان و کاربران باید اولویت را به ایمنی انسانها بدهند، تدابیر نظارتی را فعالانه بهکار گیرند و نظارتها را برای جلوگیری از سوءاستفاده از این سیستمهای پیشرفته تقویت کنند. آینده هوش مصنوعی به توانایی ما در همسوسازی این فناوریهای قدرتمند با استانداردهای اخلاقی و ارزشهای اجتماعی بستگی دارد.
منبع تجارت نیوز