آخر تحديث: 4 / 5 / 2025م - 8:58 م

”التزييف العميق“.. تهديد جديد من الذكاء الاصطناعي

جهات الإخبارية فاطمة المحسن - القطيف

كشف المختص التقني ”عبدالعزيز الحمادي“ عن صعوبة التفريق بين الصوت الحقيقي والمزيف، حيث أصبح بإمكان التقنية تزييف اللهجات.

وحذر من خطورة ”التزييف العميق“ والذي يعتبر أحد أخطر أشكال الذكاء الاصطناعي السهل الاستخدام.

ومؤخراً، غزت مواقع التواصل الاجتماعي مجموعة من مقاطع الفيديو التي تستخدم تقنية التزييف العميق التي يتم خلالها استخدام الذكاء الاصطناعي لإنتاج فيديو يظهر فيه شخص مشهور يقول أشياء أو يقوم بها دون أن يكون قد فعل في الحقيقة أياً من ذلك.

وأوضح الحمادي خلال مداخلة هاتفية على قناة ”الإخبارية“ أنه بمرور الوقت تزداد هذه التقنيات تعقيداً ودقة، ويصعب التعرف على الفرق بين الصوتيات دون استخدام أجهزة خاصة في الكشف عن التزوير.

وأضاف أن التزييف العميق يشمل استبدال شيء واقعي بشيء مشابه له تماماً تقنياً ومن أنواعه تركيب صوت وصورة شخص آخر بشكل يصعب التعرف عليه، مؤكداً أن هذه التقنيات تستخدم اليوم في تزييف الفيديوهات ونشرها على شبكة الإنترنت.

ودعا الحمادي إلى التحذير من خطورة هذه الظاهرة والعمل على تطوير الأجهزة والبرامج اللازمة للكشف عن التزوير الصوتي والمرئي.

واعتبر عدد من الخبراء أن التزييف العميق هو أحد أبرز الجوانب السلبية المخيفة للعالم الرقمي، ما يحتم علينا مواجهته والتعامل معه بصورة جماعية لما يترتب عليه من آثار خطيرة حال تم توظيفه في عمليات الاحتيال التي تعدت المستويات الفردية ليصل تأثيرها إلى المستويات العالمية.