
كشفت سلسلة اختبارات حديثة أجرتها شركة برامج مكافحة الفيروسات “ميلوير بايتس” عن قدرات إضافية مثيرة للقلق لمنصة محادثات الذكاء الاصطناعي “شات جي.بي.تي”، تتجاوز مجرد الإجابة على الأسئلة.
إقرأ أيضا:
وتشمل هذه القدرات تحديد الموقع الجغرافي للأفراد بدقة من خلال صور تبدو غامضة ولا تحمل أي بيانات تعريفية، بالإضافة إلى إنشاء مقاطع فيديو “مزيفة بدقة متناهية” تجعل اكتشاف التزييف أمرًا شبه مستحيل.
أكدت شركة “ميلوير بايتس” أن منصة “شات جي.بي.تي” أظهرت “تمكنًا مريبًا” في “تخمين المواقع الجغرافية” للمستخدمين بناءً على صور لا تتضمن بيانات وصفية تقليدية مثل الموقع الجغرافي، وقت وتاريخ التصوير.
ووفقًا للشركة، فإن “هناك أسبابًا وجيهة للقلق بشأن ما يظهر في صور الخلفية، لأن الذكاء الاصطناعي أصبح بارعًا جدًا في تخمين موقعك بناءً على أبسط الأدلة”.
وقد استطاعت منصة المحادثة، خلال الاختبارات، تحليل الأدلة والإشارات البصرية الموجودة في الهندسة المعمارية للمباني والبيئة المحيطة بالشخص الظاهر في الصورة لتضييق نطاق المواقع المحتملة قبل تحديد المكان بدقة مذهلة أو الاقتراب منه بشكل كبير. وحذرت “ميلوير بايتس” من أن مجرد وجود “عربة يدوية تحمل علامة تجارية محددة أو طائر ينتمي إلى موطن جغرافي معين في الصورة قد يكون كافيًا لتخمين موقعك بدقة”.
تزييف عميق لنبضات القلب يجعل اكتشاف الفيديوهات المزيفة أكثر صعوبة:
في سياق متصل، نشرت دراسة أجراها معهد فراونهوفر هاينريش هيرتز وجامعة هومبولت في برلين نتائج اختبارات تكشف عن قدرة الذكاء الاصطناعي على توليد “إشارات دقيقة مرتبطة بنبضات القلب” فيما يُعرف بمقاطع الفيديو المزيفة بتقنية “التزييف العميق” (Deepfake).
وأوضح الفريق البحثي أن “التطور الحالي لتقنيات توليد الصور يجعل اكتشاف المحتوى المتلاعب به من خلال الفحص البصري أمرًا بالغ الصعوبة”.
سابقًا، كان بعض التفاصيل الدقيقة في الحياة الواقعية، مثل نبضات القلب، تختفي أثناء عملية توليد مقاطع الفيديو المزيفة، وهو ما كان يمثل “نقطة ضعف يمكن استغلالها في الكشف عن هذه المقاطع”.
لكن هذا الوضع لم يعد قائمًا، حيث تمكن الفريق الآن من إنتاج مقاطع فيديو مزيفة بعمق تحتوي على ما يبدو أنها نبضات قلب بشرية واقعية.
وتشير نتائج الباحثين، التي نُشرت في مجلة “فرونتيرز إن إيمدجنج” للعلوم والتكنولوجيا، إلى أن تقنيات كشف نبضات القلب “لم تعد صالحة لاكتشاف أساليب التزييف العميق الحالية”.
هل ما زال هناك أمل في كشف التزييف العميق؟
على الرغم من هذه التطورات المقلقة، قد لا يكون الأمل قد ضاع تمامًا في الوصول إلى أدوات جديدة تسهل كشف الفيديوهات المزيفة بتقنيات التزييف العميق.
فقد اقترح الباحثون أن “تحليل التوزيع المكاني لتدفق الدم فيما يتعلق بمدى معقوليته يمكن أن يساعد في اكتشاف مقاطع الفيديو المزيفة عالية الجودة”.
تثير هذه الاكتشافات الجديدة مخاوف جدية بشأن الخصوصية والأمن، وتؤكد على الحاجة الملحة لتطوير تقنيات قادرة على كشف التزييف العميق والتصدي لإساءة استخدام قدرات الذكاء الاصطناعي المتنامية.