الأحد، 16 أبريل 2023

عملية احتيال مريبة للغاية.. اختطفوا ابنتها بالذكاء الاصطناعي

عملية احتيال مريبة للغاية.. اختطفوا ابنتها بالذكاء الاصطناعي

اختطفوا ابنتها بالذكاء الاصطناعي


تمكن مجموعة من المحتالين محاكاة صوت فتاة باستخدام تقنيات الذكاء الاصطناعي، في محاولة لإيهام والدتها باختطافها وطلب فدية مالية بقيمة مليون دولار.

بعد إبلاغ الشرطة:

اكتشف أن الفتاة لم تخطف أصلا. وكانت الفتاة كانت موجودة في مكان عام للتزلج، وكل ما جرى كان عبارة عن عملية الاحتيال باستخدام الذكاء الاصطناعي، قالت الأم جينيفر ديستيفانو: "صدقت حقيقة أنها ابنتي وشعرت بالكثير من الخوف".

أضافت تلقيت مكالمة من رقم غير معروف، لم أرغب في الإجابة أولا لكنني أجبت لأن ابنتي كانت في رحلة تزلج ربما تكون بحاجة لشيء ما".أكملت: سمعت صوت ابنتي وهي تصرخ أمي وتبكي، وبدأ المحتال بالتهديد أنه سينقلها للمكسيك إذا لم استجب لطبالته".  

تابعت: "في البداية طلب مليون دولار، لكنه خفض الرقم بعد ذلك إلى 50000 دولار بعد أن قلت له إنني لا أملك المال".وبعد الاتصال بالشرطة تبين أن ابنتها كانت آمنة وسليمة في رحلة التزلج.واتضح فيما بعد أنه تمت محاكاة صوت الفتاة باستخدام تقنيات الذكاء الاصطناعي بغرض الاحتيال.

الثلاثاء، 11 أبريل 2023

 تقنية الذكاء الاصطناعي صوت وصورة تحاكي الحياة الواقعية.. هل يمكنك التمييز بين الحقيقي والمزيف؟

 تقنية "التزييف العميق" للذكاء الاصطناعي.. صوت وصورة تحاكي الواقعي هل يمكنك التمييز بين الحقيقي والمزيف؟

"التزييف العميق" للذكاء الاصطناعي



على مدار الثلاثين عامًا الماضية أو نحو ذلك، تم إخبار الأطفال بعدم تصديق كل ما يشاهدونه عبر الإنترنت، ولكن يمكن أن يحتاج الأمر الآن إلى توسيع نطاق هذه النصيحة لتشمل البالغين.فبحسب ما نشرته "ديلي ميل" البريطانية، فإن العالم يشهد حاليًا طفرة فيما يسمى بظاهرة "التزييف العميق"، حيث يتم استخدام تقنية الذكاء الاصطناعي AI لمعالجة مقاطع الفيديو والصوت بطريقة تحاكي الحياة الواقعية بدقة عالية.

خطوط فاصلة

للمساعدة على مزيد من الإيضاح بمثال أكثر شفافية، تم إصدار أول فيديو مزيف عميق في العالم باستخدام برنامج استوديو الذكاء الاصطناعي Revel.ai، والذي يبدو وكأنه يُظهر نينا شيك، مستشارة الذكاء الاصطناعي المحترفة، بينما تقوم بتقديم تحذير حول كيفية "عدم وضوح الخطوط الفاصلة بين الواقع والخيال". ,بالطبع، لم تكن نينا شيك هي من تظهر في مقطع الفيديو حقًا، كما أنه تم توقيع الفيديو بشكل مشفر من قبل شركة الأصالة الرقمية Truepic، معلنة أنه يتضمن محتوى مزيفاً تم إنشاؤه باستخدام برنامج ذكاء اصطناعي.

يقول مقطع الفيديو المزيف ببطء ووضوح: "يقول البعض إن الحقيقة هي انعكاس لواقعنا. نحن معتادون على تعريفه بحواسنا. لكن ماذا لو تغير واقعنا؟ ماذا لو لم نعد قادرين على الاعتماد على حواسنا لتحديد أصالة ما نراه وهنا؟ إننا في فجر الذكاء الاصطناعي، وأصبحت الخطوط الفاصلة بين الواقع والخيال غير واضحة بالفعل".ويضيف المقطع أنه في "عالم يتم الخلط بين الظلال والحقيقة، فإن المرء في بعض الأحيان يحتاج إلى تغيير منظوره بشكل جذري لرؤية الأشياء كما هي بالفعل".

توقيع مشفر

وينتهي مقطع الفيديو المُفبرك بدقة عالية بتوصيل رسالة مفادها أن المقطع تم تزييفه باستخدام برنامج Revel.ai وبموافقة من نينا شيك نفسها، وأنه تم توقيعه بشكل مشفر بواسطة شركة Truepic."إن تقنيات "ديب فيك" هي شكل من أشكال الذكاء الاصطناعي، تستخدم "التعلم العميق" لمعالجة الصوت أو الصور أو الفيديو، وإنشاء محتوى وسائط شديد الواقعية، ولكنه في الحقيقة مقطع فيديو مزيف.

رئيس أوكرانيا

ومن أشهر الاستخدامات السيئة السمعة لتقنية التزييف العميق أو "ديب فيك'' كان انتحالًا فظًا لشخصية الرئيس الأوكراني فولوديمير زيلينسكي وهو يبدو مستسلمًا لروسيا في مقطع فيديو تم تداوله على نطاق واسع على وسائل التواصل الاجتماعي الروسية العام الماضي.

يُظهر المقطع الرئيس الأوكراني وهو يتحدث من منصته وهو يدعو قواته إلى إلقاء أسلحتهم والإذعان للقوات الروسية. لكن لاحظ مستخدمو الإنترنت الأذكياء على الفور التناقضات بين لون رقبة ووجه زيلينسكي، واللهجة الغريبة وعدم التماهي بين الخلفية والظلال المحيطة حول رأسه.

الأغراض الترفيهية

على الرغم من القيمة الترفيهية للـ"ديب فيك"، فقد حذر بعض الخبراء من المخاطر التي يمكن أن تشكلها، إذ أثيرت مخاوف في الماضي حول كيفية استخدامها لإنشاء مقاطع فيديو لإيذاء الأطفال أو الانتقام من آخرين بمواد إباحية مزيفة، فضلاً عن الخدع السياسية.

مشروع قانون

في نوفمبر 2022، تم إجراء تعديل على مشروع قانون الأمان على الإنترنت للحكومة البريطانية والذي نص على أن استخدام تقنية التزييف العميق لتزييف صور إباحية ولقطات لأشخاص دون موافقتهم غير قانونية. قال دكتور تيم ستيفنز، مدير مجموعة أبحاث الأمن السيبراني في "كينغز كوليدج لندن"، إن الذكاء الاصطناعي المزيف العميق لديه القدرة على تقويض المؤسسات الديمقراطية والأمن القومي

سلاح في الحروب

وقال إن التوافر الواسع لهذه الأدوات يمكن أن تستغل من قبل دول متحاربة لـ "التصيد" والتلاعب بالسكان المستهدفين في محاولة لتحقيق أهداف السياسة الخارجية و"تقويض" الأمن القومي للدول الأخرى.

تهديد الأمن القومي

وأضاف دكتور ستيفنز أن "هناك إمكانية لأن تؤثر أنظمة الذكاء الاصطناعي والتزييف العميق على الأمن القومي، وأن الأمر لا يقتصر فقط على مستوى الدفاع العالي والحرب بين الدول، ولكن بشكل عام لتقويض الثقة في المؤسسات الديمقراطية ووسائل الإعلام. ويمكن للأنظمة الاستبدادية أن تستغل تقنيات "ديب فيك" لتزييف مقاطع فيديو من شأنها تقليل مستوى الثقة في المؤسسات والمنظمات الرسمية للدول المتحاربة معها.

انتشار واسع النطاق

مع ظهور أدوات AI المتاحة مجانًا لتحويل النص إلى صورة والنص إلى الفيديو، مثل DALL-E و Make-A-VideoمنMeta ، ستصبح الوسائط التي يتم التلاعب بها أكثر انتشارًا. وفي الواقع، تم التنبؤ بأن 90% من المحتوى عبر الإنترنت سيتم إنشاؤه باستخدام الذكاء الاصطناعي بحلول عام 2025. وعلى سبيل المثال، تمكن مستخدمو وسائل التواصل الاجتماعي من اكتشاف حقيقة صورة مزيفة، يُفترض أنها تم إنشاؤها بواسطة الذكاء الاصطناعي، لقط به بقع زواحف سوداء وصفراء على جسمه، والتي تم الإعلان عن أنه من الأنواع المُكتشفة حديثًا.

معيار للمصداقية

وأعرب الخبراء الأمن الإلكتروني والذكاء الاصطناعي عن أملهم في أن يتم إجبار المنصات وشركات الذكاء الاصطناعي على وضع توقيع على المحتوى الذي يتم إنشاؤه بواسطة برامجهم لوضع معيار مفتوح لمصداقية المحتوى. وتوقع الخبراء أن الذكاء الاصطناعي سيكون جزءًا أساسيًا من عملية إنتاج جميع المعلومات الرقمية تقريبًا، لذلك إذا لم يكن هناك طريقة لمصادقة هذه المعلومات، سواء تم إنشاؤها بواسطة الذكاء الاصطناعي أم لا، فإنه سيكون من الصعب للغاية التعامل بثقة ومصداقية مع نظام المعلومات الرقمي.

مصدر المعلومات

وقال الخبراء أنه "على الرغم من أن المستخدمين لم يدركوا أن لديهم الحق في فهم مصدر المعلومات، التي يتلقونها أو يطلعون عليها، فإنهم يأملون في أن تظهر هذه الحملة أن ذلك ممكن وأن هذا حق يجب عليهم المطالبة به". ,تتوافق تقنية إنشاء التوقيع الرقمي المُشفر مع المعيار الجديد، الذي طوره التحالف من أجل إنشاء المحتوى والأصالة C2PA، وهو عبارة عن هيئة صناعية، تضم أعضاء من بينهم Adobe وMicrosoft وBBC، والذي يعمل على معالجة انتشار المعلومات المضللة عبر الإنترنت.

إزالة الالتباس لمزيد من الأمان

تقول السيدة شيك وشركتا Truepic و Revel.ai إن مقطع الفيديو الخاص بهم يوضح أنه من الممكن للتوقيع الرقمي زيادة الشفافية فيما يتعلق بالمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، معربين عن أملهم في أن يعمل على إزالة الالتباس حول مصدر الفيديو، مما يساعد على جعل الإنترنت مكانًا أكثر أمانًا.

عالم أخلاقي بموثوقية وشفافية

وقال بوب دي جونغ، المدير الإبداعي في شركة Revel.ai: "عندما تُستخدم أداة ذكاء اصطناعي بشكل جيد، فإنها ستكون وسيلة رائعة لسرد القصص والحرية الإبداعية في صناعة الترفيه. إن قوة الذكاء الاصطناعي والسرعة التي يتطور بها شيء لم يسبق للعالم رؤيته من قبل". وأشار دي جونغ إلى أن "الأمر متروك للجميع، بما يشمل صُنّاع المحتوى، لتصميم عالم أخلاقي بمصداقية وشفافية لإنشاء المحتوى حتى يُمكن الاستمرار في استخدام الذكاء الاصطناعي وأن يستطيع المجتمع احتضانه والاستمتاع به ولا يتضرر منه".

الجمعة، 10 مارس 2023

 20 وظيفة مهددة بسبب الذكاء الاصطناعي.. هل يأخد الروبوت عملك؟

 20 وظيفة مهددة بسبب الذكاء الاصطناعي.. هل يأخد الروبوت عملك؟

الذكاء الاصطناعي


العاملون بمراكز الاتصال ومعلمو اللغة الإنجليزية والتاريخ على رأس قائمة الوظائف التي تواجه مخاطر الاندثار بسبب الذكاء الاصطناعي

تثير أدوات الذكاء الاصطناعي AI إعجاب البعض لقدرتها على أداء المهام المعقدة التي كان يُعتقد في السابق أنها حكر على البشر، حيث تم استخدام أداة ChatGPT لاجتياز الاختبارات وإلقاء خطبة وكتابة برامج الكمبيوتر وتقديم المشورة بشأن العلاقات الإنسانية والاجتماعية، على سبيل المثال لا الحصر، فيما يعد قليلا من عدد كبير من وظائفها، بحسب ما نشرته "ديلي ميل" البريطانية.

سؤال مخيف

لكن بالنسبة للبعض الآخر، أثارت هذه التقنيات سؤالًا مخيفًا حول ما إذا كان الذكاء الاصطناعي يمكن أن يستولي على وظيفتهم؟ تمت الإجابة على السؤال من خلال نتائج دراسة قام بإجرائها باحثون من جامعة برينستون في نيوجيرسي الأميركية ونشرها موقع arXiv، حول 20 مهنة هي الأكثر عرضة لخطر الاستغناء عنها لصالح الذكاء الاصطناعي.

مراكز الاتصال والجامعات

جاء العاملون في مراكز الاتصال في المرتبة الأولى من القائمة، لكن الثمانية التاليين كانوا جميعًا مدرسين من تخصصات مختلفة، بما يشمل اللغات والتاريخ والقانون والدين.

كتب الباحثون أنه "من المرجح أن يكون تأثير الذكاء الاصطناعي على العمل متعدد الأوجه. في بعض الحالات، يمكن أن يكون الذكاء الاصطناعي بديلاً عن العمل الذي كان يقوم به البشر سابقًا، وفي حالات أخرى، يمكن أن يقوم الذكاء الاصطناعي بإكمال العمل الذي قام به البشر".

نمذجة لغة الذكاء الاصطناعي

تشمل الأمثلة البارزة على كيفية استمرار تقدم قدرات الذكاء الاصطناعي التحسينات الأخيرة في نمذجة لغة الذكاء الاصطناعي في أداة ChatGPT، على وجه الخصوص، التي حظيت بقدر كبير من الاهتمام والجدل.

في دراسة جامعة برينستون، قام الباحثون أولاً ببناء خوارزمية تقيس مدى إمكانية أتمتة 800 مهنة بواسطة الذكاء الاصطناعي، من خلال ربط 10 تطبيقات مدعومة بالذكاء الاصطناعي، مثل الترجمة ونمذجة اللغة وتوليد الصور، بـ 52 من القدرات البشرية، مثل الفهم الشفهي وثبات اليد.

الـ20 وظيفة الأكثر تأثرًا

كشفت النتائج عن أكثر 20 وظيفة يمكن أن تستحوذ على أكبر نسبة من عبء العمل بها بواسطة تقنية الذكاء الاصطناعي، من بينها وظائف ذات رواتب عالية وتتطلب مستوى عاليا من التعليم، مثل الخبراء الاكتواريين ومحللي الميزانية والمحاسبين والقضاة.

ولكن عندما قام الباحثون بتعديل الخوارزمية لتأخذ في الاعتبار التطورات المهمة في نمذجة اللغة التي شهدتها الأشهر القليلة الماضية، اشتملت القائمة على وظائف أخرى أكثر عرضة للخطر، على رأسها موظفو مراكز الاتصال والتسويق عبر الهاتف، وهي نتيجة ربما لا تكون مفاجئًة لأن العديد من الشركات تستخدم حاليًا روبوتات محادثة مدعومة بالذكاء الاصطناعي بالفعل.

كتب الباحثون: "قد يتخيل المرء أن المسوقين عبر الهاتف يمكن أن يستفيدوا من استخدام النمذجة اللغوية لزيادة عملهم. على سبيل المثال، يمكن تغذية استجابات العملاء في محرك نمذجة اللغة في الوقت الفعلي والمطالبات ذات الصلة والخاصة بالعميل التي يتم إرسالها بسرعة إلى المسوق عبر الهاتف، أو قد يتخيل المرء أن المسوقين عبر الهاتف يمكن أن يتم استبدالهم بروبوتات بعد التمكن من نمذجة اللغة."

مدرسو التعليم العالي

كما أظهرت النتائج أن 14 من أصل 20 مهنة من بينها وظيفة مدرس للتعليم العالي في تخصصات مختلفة، بما يشمل التاريخ والجغرافيا والدين وعلم الاجتماع واللغة الإنجليزية. وأوضح الباحثون أن "المهن في مجال التعليم من المرجح أن تتأثر نسبيًا بالتقدم في نمذجة اللغة أكثر من المهن الأخرى".

دراسة سويسرية

تأتي الدراسة بعد فترة وجيزة من كشف باحثون من المعهد الفيدرالي للتكنولوجيا في لوزان عن الوظائف التي اعتقدوا أنها الأكثر والأقل احتمالا لتوليها الروبوتات.

عمال التعبئة والبناء

تشير النتائج التي توصلوا إليها إلى أن من يقومون بتعبئة اللحوم والنظافة والتشييد والبناء يواجهون أكبر مخاطر استبدالهم بالآلات، في حين أن وظائف المعلمين والمحامين والفيزيائيين في مجال آمن.

التحدي الرئيسي

أوضح بروفيسور رافائيل لاليف، الذي شارك في قيادة الدراسة، أن "التحدي الرئيسي الذي يواجه المجتمع اليوم هو كيف سيصبح الشخص مرنًا ضد الأتمتة".وأشار إلى أن نتائج الدراسة توفر "نصائح مهنية مفصلة للموظفين والعمال الذين يواجهون مخاطر كبيرة من الأتمتة، بما يسمح لهم بتولي وظائف أكثر أمانًا أثناء إعادة استخدام العديد من المهارات المكتسبة في الوظيفة القديمة." وبناءً على النتائج، طور الباحثون أداة كشفت عن مخاطر التشغيل الآلي للوظائف وكيف يمكن إعادة استخدام المرء لقدراته وخبراته