سه‌شنبه, آگوست 19, 2025
سه‌شنبه, آگوست 19, 2025
- Advertisment -spot_img
- Advertisment -spot_img

اخبار بیشتر

- Advertisment -spot_img

خطر چت‌بات‌های هک‌شده؛ افشای اطلاعات خطرناک

پژوهشگران می‌گویند که برخی چت‌بات‌ها (ربات‌های گفتگو) مانند ChatGPT، زمانی که توسط هکرها جیل‌بریک (هک) می‌شوند، می‌توانند اطلاعات خطرناک و غیرقانونی را برای مردم آشکار کنند؛ مانند آموزش هک، پول‌شویی یا ساختن مواد انفجاری.

این چت‌بات‌ها با معلومات زیاد از انترنت آموزش دیده‌اند. شرکت‌های سازنده کوشش کرده‌اند که معلومات نادرست و مضر را از بین ببرند، اما این سیستم‌ها هنوز هم می‌توانند دور زده شوند و به سوال‌های خطرناک پاسخ بدهند.

در یک پژوهش تازه از پوهنتون بن‌گوریون، دانشمندان توانسته‌اند با یک روش جیل‌بریک، چت‌بات‌ها را وادار کنند تا معلوماتی بدهند که معمولاً اجازه ندارند بگویند.

این موضوع می‌تواند خطر بزرگی باشد، چون این معلومات قبلاً فقط در دست گروه‌های مجرم بود.

برخی شرکت‌ها حتی مدل‌هایی را ساخته‌اند که هیچ‌گونه کنترول ایمنی ندارند و بعضی اوقات برای کارهای غیرقانونی استفاده می‌شوند. به این مدل‌ها «مدل‌های تاریک» می‌گویند.

پژوهشگران پیشنهاد کرده‌اند که شرکت‌ها باید دقت بیشتری در انتخاب معلومات آموزشی داشته باشند و از روش‌های قوی‌تر امنیتی کار بگیرند، مانند دیوار آتش هوشمند و سیستم‌های یادگیری پیشرفته.

همچنین گفته شده که فقط ظاهر ساده و مورد پسند کاربر کافی نیست؛ شرکت‌ها باید تیم‌های امنیتی داشته باشند تا این سیستم‌ها را آزمایش کنند و از خطرات جلوگیری کنند.

شرکت OpenAI گفته است که مدل نو آنها به نام o1 در برابر هک مقاوم‌تر است و می‌فهمد که چه چیزی خطرناک یا غیرمجاز است.

- Advertisment -spot_img