السبت, نوفمبر 8, 2025
السبت, نوفمبر 8, 2025
- Advertisment -spot_img
- Advertisment -spot_img

المزيد من الأخبار

خطر الدردشات الآلية المُخترَقة؛ كشف معلومات خطيرة

- Advertisement -

يقول الباحثون إن بعض روبوتات المحادثة مثل ChatGPT، عندما تُخترق عن طريق ما يُعرف بالـ”جيلبريك”، يمكن أن تكشف معلومات خطيرة وغير قانونية للناس، مثل تعليم طرق الاختراق، غسل الأموال، أو تصنيع المتفجرات.

هذه الروبوتات تدربت على كمّ هائل من المعلومات من الإنترنت. وقد حاولت الشركات المُصنعة إزالة المعلومات الضارة والخاطئة، لكن ما زالت هذه الأنظمة قابلة للتحايل ويمكنها الإجابة عن أسئلة خطيرة.

في بحث جديد من جامعة بن غوريون، تمكن العلماء من استخدام طريقة جيلبريك لجعل روبوتات المحادثة تقدّم معلومات لا يُفترض بها أن تذكرها عادة.

وهذا يشكّل خطراً كبيراً، لأن مثل هذه المعلومات كانت سابقاً بيد جماعات إجرامية فقط.

بعض الشركات أنشأت حتى نماذج لا تحتوي على أي نوع من ضوابط الأمان، وتُستخدم أحياناً لأغراض غير قانونية. تُسمّى هذه النماذج “النماذج المظلمة”.

وقد اقترح الباحثون أن على الشركات أن تكون أكثر دقة في اختيار البيانات التعليمية، وأن تستخدم أنظمة أمان أقوى، مثل جدران نارية ذكية وأنظمة تعلم متقدمة.

كما أُشير إلى أن المظهر البسيط والجذاب للمستخدم لا يكفي؛ بل يجب أن تمتلك الشركات فرق أمنية لاختبار هذه الأنظمة ومنع المخاطر.

وقد صرّحت شركة OpenAI أن نموذجها الجديد المُسمّى o1 أكثر مقاومة للاختراق، ولديه قدرة أفضل على تمييز المحتوى الخطر أو غير المسموح به.

- Advertisement -