دانشمندان دریافتهاند که شبکههای هوش مصنوعی، ساختهشده بر پایه مدلهای زبانی بزرگ مانند ChatGPT، در تعاملات گروهی بدون دخالت انسان، بهتدریج الگوهای زبانی و قواعد اجتماعی مشابه انسانها را فرا میگیرند.
بر اساس پژوهشی منتشرشده در نشریه Science Advances، این شبکهها در شرایط تعامل جمعی مهارتهایی مانند مذاکره، همکاری و توافقسازی را توسعه میدهند.
آریئل فلینت ایشری، ریاضیدان پوهنتون سیتی لندن، توضیح داده که برخلاف مطالعات قبلی که مدلها را بهصورت جداگانه بررسی میکردند، این پژوهش بر رفتار جمعی آنها تمرکز داشته است.
در آزمایشها، گروههایی متشکل از ۲۴ تا ۱۰۰ مدل زبانی بررسی شدند.
در هر مرحله، دو مدل بهصورت تصادفی انتخاب و مأمور به انتخاب یک «نام» شدند. اگر نام انتخابی یکسان بود، پاداش دریافت میکردند.
در نهایت، بدون آگاهی از دیگر اعضای گروه، شبکهها بهتدریج یک نظام نامگذاری مشترک و قواعد اجتماعی مشابه انسان شکل دادند.
پروفسور آندریا بارونکیلی از پوهنتون سنت جورج این یافته را گامی مهم در پژوهشهای اخلاقی و ایمنی هوش مصنوعی دانسته و تأکید کرده که درک این رفتارهای جمعی برای همزیستی صلحآمیز با فناوری ضروری است.
او گفت: «ما به جهانی وارد میشویم که در آن هوش مصنوعی نهفقط حرف میزند، بلکه مذاکره میکند، به توافق میرسد و حتی گاهی مخالفت میورزد.»