شات جي.بي.تي" بقدرات مرعبة: تحديد المواقع من صور غامضة وإنشاء فيديوهات مزيفة لا تُكتشف
شارك الخبر عبر:

كشفت سلسلة اختبارات حديثة أجرتها شركة برامج مكافحة الفيروسات “ميلوير بايتس” عن قدرات إضافية مثيرة للقلق لمنصة محادثات الذكاء الاصطناعي “شات جي.بي.تي”، تتجاوز مجرد الإجابة على الأسئلة.

إقرأ أيضا:

أمانة جدة تفتتح طريقًا جديدًا لتعزيز الربط بين الأحياء وقطار الحرمين

احذر! سماعات AirPods من العمل قد تتجسس على تحركاتك دون علمك

خادم الحرمين يدعم الأشقاء الفلسطينيين بمكرمة حج جديدة

طالب صيني يحطم الرقم القياسي العالمي لأسرع طائرة مسيرة مصغرة في غينيس

كاظم الساهر يفاجئ الجميع بـ”لوك رمادي” جديد في حفله بدبي!

كودكس” من أوبن أيه آي: ثورة الذكاء الاصطناعي في عالم البرمجة بتحويل اللغة الإنجليزية إلى أكواد

فيلا نوال الدجوي تتعرض لسطو غامض.. والنيابة تكشف مفاجئات صادمة

تيك توك” يطلق خاصية جديدة للتأمل والاسترخاء لمساعدة المستخدمين على النوم

ما وراء تعيين كامل الطيب إدريس؟.. قراءة في المشهد السياسي السوداني

من هو مثنى سرطاوي الذي سحبت الكويت جنسيته ضمن مرسوم جديد؟

وتشمل هذه القدرات تحديد الموقع الجغرافي للأفراد بدقة من خلال صور تبدو غامضة ولا تحمل أي بيانات تعريفية، بالإضافة إلى إنشاء مقاطع فيديو “مزيفة بدقة متناهية” تجعل اكتشاف التزييف أمرًا شبه مستحيل.

أكدت شركة “ميلوير بايتس” أن منصة “شات جي.بي.تي” أظهرت “تمكنًا مريبًا” في “تخمين المواقع الجغرافية” للمستخدمين بناءً على صور لا تتضمن بيانات وصفية تقليدية مثل الموقع الجغرافي، وقت وتاريخ التصوير.

ووفقًا للشركة، فإن “هناك أسبابًا وجيهة للقلق بشأن ما يظهر في صور الخلفية، لأن الذكاء الاصطناعي أصبح بارعًا جدًا في تخمين موقعك بناءً على أبسط الأدلة”.

وقد استطاعت منصة المحادثة، خلال الاختبارات، تحليل الأدلة والإشارات البصرية الموجودة في الهندسة المعمارية للمباني والبيئة المحيطة بالشخص الظاهر في الصورة لتضييق نطاق المواقع المحتملة قبل تحديد المكان بدقة مذهلة أو الاقتراب منه بشكل كبير. وحذرت “ميلوير بايتس” من أن مجرد وجود “عربة يدوية تحمل علامة تجارية محددة أو طائر ينتمي إلى موطن جغرافي معين في الصورة قد يكون كافيًا لتخمين موقعك بدقة”.

تزييف عميق لنبضات القلب يجعل اكتشاف الفيديوهات المزيفة أكثر صعوبة:

في سياق متصل، نشرت دراسة أجراها معهد فراونهوفر هاينريش هيرتز وجامعة هومبولت في برلين نتائج اختبارات تكشف عن قدرة الذكاء الاصطناعي على توليد “إشارات دقيقة مرتبطة بنبضات القلب” فيما يُعرف بمقاطع الفيديو المزيفة بتقنية “التزييف العميق” (Deepfake).

وأوضح الفريق البحثي أن “التطور الحالي لتقنيات توليد الصور يجعل اكتشاف المحتوى المتلاعب به من خلال الفحص البصري أمرًا بالغ الصعوبة”.

سابقًا، كان بعض التفاصيل الدقيقة في الحياة الواقعية، مثل نبضات القلب، تختفي أثناء عملية توليد مقاطع الفيديو المزيفة، وهو ما كان يمثل “نقطة ضعف يمكن استغلالها في الكشف عن هذه المقاطع”.

لكن هذا الوضع لم يعد قائمًا، حيث تمكن الفريق الآن من إنتاج مقاطع فيديو مزيفة بعمق تحتوي على ما يبدو أنها نبضات قلب بشرية واقعية.

وتشير نتائج الباحثين، التي نُشرت في مجلة “فرونتيرز إن إيمدجنج” للعلوم والتكنولوجيا، إلى أن تقنيات كشف نبضات القلب “لم تعد صالحة لاكتشاف أساليب التزييف العميق الحالية”.

هل ما زال هناك أمل في كشف التزييف العميق؟

على الرغم من هذه التطورات المقلقة، قد لا يكون الأمل قد ضاع تمامًا في الوصول إلى أدوات جديدة تسهل كشف الفيديوهات المزيفة بتقنيات التزييف العميق.

فقد اقترح الباحثون أن “تحليل التوزيع المكاني لتدفق الدم فيما يتعلق بمدى معقوليته يمكن أن يساعد في اكتشاف مقاطع الفيديو المزيفة عالية الجودة”.

تثير هذه الاكتشافات الجديدة مخاوف جدية بشأن الخصوصية والأمن، وتؤكد على الحاجة الملحة لتطوير تقنيات قادرة على كشف التزييف العميق والتصدي لإساءة استخدام قدرات الذكاء الاصطناعي المتنامية.

شارك الخبر عبر:

قد يعجبك أيضا

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *