شات جي.بي.تي" بقدرات مرعبة: تحديد المواقع من صور غامضة وإنشاء فيديوهات مزيفة لا تُكتشف
شارك الخبر عبر:

كشفت سلسلة اختبارات حديثة أجرتها شركة برامج مكافحة الفيروسات “ميلوير بايتس” عن قدرات إضافية مثيرة للقلق لمنصة محادثات الذكاء الاصطناعي “شات جي.بي.تي”، تتجاوز مجرد الإجابة على الأسئلة.

إقرأ أيضا:

مفاجأة: توم كروز يرفض الاعتزال ويكشف عن خطته حتى سن الـ100

عمرو الليثي يخضع لعملية جراحية ويطمئن جمهوره: “أجريت الجراحة اليوم”

الإنترنت ينتشر بسرعة في السعودية: تعرف على أكثر المناطق استخدامًا

كريم الشناوي يكشف كواليس “لام شمسية” ويكذّب تصدره المشاهدات ويُفجر مفاجأة بشأن ترشيح منى زكي وإياد نصار

الضمان الاجتماعي المطور.. خطوات الاستعلام برقم الهوية فقط

إليسا تثير الجدل بتغير ملامحها ورد فعل قوي من جمهورها

برج الدلو: صفاته المميزة وأخطر عيوبه ومشاهير ينتمون إليه

الصين تستعد لإطلاق “تيانوين-2”: أول مهمة لجمع عينات من كويكب قريب من الأرض

ميتا تطلق ميزة خرافية لتعديل الصور تلقائيًا باستخدام الذكاء الاصطناعي

مهمة فضائية هندية تفشل في وضع قمر لرصد الأرض بالمدار بسبب مشكلة فنية

وتشمل هذه القدرات تحديد الموقع الجغرافي للأفراد بدقة من خلال صور تبدو غامضة ولا تحمل أي بيانات تعريفية، بالإضافة إلى إنشاء مقاطع فيديو “مزيفة بدقة متناهية” تجعل اكتشاف التزييف أمرًا شبه مستحيل.

أكدت شركة “ميلوير بايتس” أن منصة “شات جي.بي.تي” أظهرت “تمكنًا مريبًا” في “تخمين المواقع الجغرافية” للمستخدمين بناءً على صور لا تتضمن بيانات وصفية تقليدية مثل الموقع الجغرافي، وقت وتاريخ التصوير.

ووفقًا للشركة، فإن “هناك أسبابًا وجيهة للقلق بشأن ما يظهر في صور الخلفية، لأن الذكاء الاصطناعي أصبح بارعًا جدًا في تخمين موقعك بناءً على أبسط الأدلة”.

وقد استطاعت منصة المحادثة، خلال الاختبارات، تحليل الأدلة والإشارات البصرية الموجودة في الهندسة المعمارية للمباني والبيئة المحيطة بالشخص الظاهر في الصورة لتضييق نطاق المواقع المحتملة قبل تحديد المكان بدقة مذهلة أو الاقتراب منه بشكل كبير. وحذرت “ميلوير بايتس” من أن مجرد وجود “عربة يدوية تحمل علامة تجارية محددة أو طائر ينتمي إلى موطن جغرافي معين في الصورة قد يكون كافيًا لتخمين موقعك بدقة”.

تزييف عميق لنبضات القلب يجعل اكتشاف الفيديوهات المزيفة أكثر صعوبة:

في سياق متصل، نشرت دراسة أجراها معهد فراونهوفر هاينريش هيرتز وجامعة هومبولت في برلين نتائج اختبارات تكشف عن قدرة الذكاء الاصطناعي على توليد “إشارات دقيقة مرتبطة بنبضات القلب” فيما يُعرف بمقاطع الفيديو المزيفة بتقنية “التزييف العميق” (Deepfake).

وأوضح الفريق البحثي أن “التطور الحالي لتقنيات توليد الصور يجعل اكتشاف المحتوى المتلاعب به من خلال الفحص البصري أمرًا بالغ الصعوبة”.

سابقًا، كان بعض التفاصيل الدقيقة في الحياة الواقعية، مثل نبضات القلب، تختفي أثناء عملية توليد مقاطع الفيديو المزيفة، وهو ما كان يمثل “نقطة ضعف يمكن استغلالها في الكشف عن هذه المقاطع”.

لكن هذا الوضع لم يعد قائمًا، حيث تمكن الفريق الآن من إنتاج مقاطع فيديو مزيفة بعمق تحتوي على ما يبدو أنها نبضات قلب بشرية واقعية.

وتشير نتائج الباحثين، التي نُشرت في مجلة “فرونتيرز إن إيمدجنج” للعلوم والتكنولوجيا، إلى أن تقنيات كشف نبضات القلب “لم تعد صالحة لاكتشاف أساليب التزييف العميق الحالية”.

هل ما زال هناك أمل في كشف التزييف العميق؟

على الرغم من هذه التطورات المقلقة، قد لا يكون الأمل قد ضاع تمامًا في الوصول إلى أدوات جديدة تسهل كشف الفيديوهات المزيفة بتقنيات التزييف العميق.

فقد اقترح الباحثون أن “تحليل التوزيع المكاني لتدفق الدم فيما يتعلق بمدى معقوليته يمكن أن يساعد في اكتشاف مقاطع الفيديو المزيفة عالية الجودة”.

تثير هذه الاكتشافات الجديدة مخاوف جدية بشأن الخصوصية والأمن، وتؤكد على الحاجة الملحة لتطوير تقنيات قادرة على كشف التزييف العميق والتصدي لإساءة استخدام قدرات الذكاء الاصطناعي المتنامية.

شارك الخبر عبر:

قد يعجبك أيضا

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *