تزييف عميق

من أرابيكا، الموسوعة الحرة
اذهب إلى التنقل اذهب إلى البحث

التزييف العميق[1] (بالإنجليزية: Deepfake)‏[أ] هي تقنية تقومُ على صنعِ فيديوهات مزيّفة عبر برامج الحاسوب من خِلال تعلّم الذكاء الاصطناعي. تقومُ هذهِ التقنيّة على محاولة دمجِ عددٍ من الصور ومقاطع الفيديو لشخصيّةٍ ما من أجلِ إنتاج مقطع فيديو جديد – باستخدام تقنية التعلم الآلي – قد يبدو للوهلة الأولى أنه حقيقي لكنّه في واقع الأمر مُزيّف.[3]

استُعمِلت هذه التقنيّة في إنشاءِ مقاطع فيديو إباحيّة مزيفة لعددٍ من المشاهير كما استُخدمت في أحيان أخرى لخلق أخبار كاذبة ومُحاولة خدع القُرّاء والانتقام الاباحي.[4][5]

التاريخ

لقد حدث تطويرٌ كبيرٌ لهذه التقنيّة على مستويينِ؛ الأول أكاديمي وقانوني نوعًا ما والثاني غير قانوني حيثُ يقومُ فيهِ مبرمجون هواة بعمليات التطوير لا غير.

البحث الأكاديمي

يتمّ استغلال هذه التقنيّة في المجال الأكاديمي في بضعِ مجالات على رأسها مجال الرؤية الحاسوبيّة وهو حقل فرعي لعلوم الكمبيوتر يستند غالبًا إلى الذكاء الاصطناعي بحيثُ يركز على معالجة الكمبيوتر للصور ومقاطع الفيديو الرقمية بشكلٍ آلي. يُعدّ برنامج فيديو ريرايت (بالإنجليزية: Video Rewrite)‏ الذي صدرَ في عام 1997 أوّل معالم هذه القنية حيثُ قام بتعديل فيديو لشخصٍ يتحدث في موضوع مُعيّن إلى فيديو لنفسِ الشخص يتحدث في موضوع آخر من خِلال استغلال الكلمات التي نطقها ذاك الشخص ومُحاولة ترتيبها في سياقٍ مختلف لتكوين جملٍ جديدة لم يقلها الشخص في الفيديو أصلًا.[6]

ركّزت المشاريع الأكاديمية المُعاصرة على إنشاء مقاطع فيديو أكثر واقعية وعلى جعل التقنية أكثر بساطة وأكثر سهولة. بحلول عام 2017؛ ظهر للوجود برنامجُ سانثيسيزينغ أوباما (بالإنجليزية: Synthesizing Obama)‏ الذي نشرَ فيديو للرئيس الأمريكي السابق باراك أوباما وهوَ يتكلّم بصوتٍ عالٍ حول هذه التقنيّة مُحاولًا شرحَ مخاطرها وهو ما لم يفعلهُ الرئيس الأمريكي أصلًا بل إنّ البرنامج قامَ بجمعِ عددٍ من فيديوهات الرئيس ثمّ حاولَ استخراج الكلمات التي يحتاجها – والتي نُطقت في سياقٍ مختلفٍ – من أجلِ استعمالها في الفيديو الوهميّ الجديد.[7] عَرفت هذه التقنية تطورًا إضافيًا بعد ظهور برنامج فايس تو فايس (بالإنجليزية: Face2Face)‏ الذي صدرَ عام 2016 والذي يقومُ بمحاكاة تعبيرات وجه شخص في فيديو قديم مُحولًا إيّاها إلى تعبيرات جديدة حسبَ رغبة المستخدم.[8]

تطوير الهواة

نشأَ مصطلح التزييف العميق في نهاية عام 2017 من أحدِ مستخدمي ريديت والذي سمّى نفسه ديب فايكس (بالإنجليزية: deepfakes)‏.[9] قام هذا المستخدم وآخرون بمشاركة فيديوهات إباحية مزيّفة كانوا قد صنعوها لمشاهير؛[9] حيثُ قاموا مثلًا بتحميل فيديوهات يظهرَ فيها ممثلون إباحيون حقيقيون ثمّ استبدلوا وجهَ الممثل الإباحي بوجهِ ممثل أمريكي مشهور. حقّقت تلك الفيديوهات نسب مشاهدات عاليّة كما تمّ تداولها على نطاقٍ كبيرٍ في مواقع التواصل كونها «مُتقنَة نوعًا ما» ومن الصعبِ معرفة ما إذا كانت مزيّفة أم لا وخاصّة الفيديو المزيّف للممثل الأمريكي نيكولاس كيج والذي كان «واقعيًا» وصدقهُ الكثير.[10] في كانون الأول/ديسمبر 2017؛ نشرت سامانثا كول مقالةً حول موضوع التزييف العَميق في مجلّة فيس ولفتت الانتباه فيها إلى الفيديوهات التي يتمّ مشاركتها على مواقع التواصل وكيفَ تُساهم في ترويج الأخبار الكاذبة أو المُزيّفة.[11]

بحلول شباط/فبراير 2018 وبعد أن كَثُر الحديث حول هذه التقنيّة قام موقع ريديت بحظر المُستخدم ديب فايكس (بالإنجليزية: deepfakes)‏ بدعوى نشرهِ لمقاطع فيديو إباحية مزيّفة كما قامت باقي المواقع بحظرِ كل من يروّج لهذهِ التقنيّة بما في ذلك موقع التواصل الاجتماعي المُصغّر تويتر وكذا موقع بورن هاب الإباحي.[12] ومع ذلك؛ لا تزال هناك مجتمعات أخرى على الإنترنت – بما في ذلك مجتمعات ريديت – تعملُ على مشاركة الفيديوهات المصنوعة بهذهِ التقنيّة بل يقومُ بعضٌ من مستخدمي ريديت بنشرِ فيديوهات وصور مزيّفة لعددٍ من المشاهير والسياسيين ولا تمّت للحقيقة بصلة،[13] في حين تُواصل المجتمعات الأخرى على الإنترنت مشاركة هذهِ المواد بعلمٍ أو بدونِ علم.[12]

الاستخدام

في المجال الإباحي

ظهرت المواد الإباحية المُنتَجة عبر تقنيّة التزييف العميق على الإنترنت في عام 2017 ولا سيما على موقع ريديت،[14] لكنّ هذا الأخير قام بحظرها ونفس الأمر فعلهُ موقعي تويتر وبورن هاب.[15][16][17] في خريف عام 2017؛ نشر مستخدم مجهولٌ على موقع ريديت العديد من مقاطع الفيديو الإباحية المُنتجة بتلك التقنيّة وتُعدّ الممثلة ديزي ريدلي أوّل من لفتت الانتباه إلى حساب ذاك المستخدم وما يقومُ به فتبيّن فيما بعد أنّه ذو خِبرة في مجال صناعة مثل هذه الفيديوهات حيثُ كان قد نشرَ مقطعًا إباحيًا مزيفًا تظهرُ فيه عارضة الأزياء الإسرائيلية غال غادوت وهي تُمارس الجنس مع شقيق زوجها كما نشرَ فيديوهات إباحية أخرى مزيّفة لكل من إيما واتسون، كيتي بيري، تايلور سويفت وَسكارليت جوهانسون. كلّ المشاهد لم تكن حقيقية بالطبع؛ حيثُ تمّ إنشاؤها عبر الذكاء الاصطناعي وقد تمّ اكتشافها بعد وقتٍ قصيرٍ من قِبل خُبراء في مجال علوم الكمبيوتر.

مع مرور الوقت؛ قامَ مجتمع ريديت بإصلاح العديد من الأخطاء في مقاطع الفيديو المزيفة ما جعلَ من الصعبِ اكتشافها أو التمييز بينها وبينَ المحتوى الحقيقي. في المُقابل حاول آخرون تطوير برامج تقومُ بجمعِ الفيديوهات والصور الحقيقيّة على النت وتخزنها كبيانات من أجل التدريب على التمييز بين المحتوى الوهمي والمحتوى الحقيقي. جديرٌ بالذكر هنا أنّ القسم الفني والعلمي في مجال فيس هو أول من أبلغَ عن هذه الظاهرة لأوّل مرة في كانون الأول/ديسمبر 2017 فقامت باقي وسائل الإعلام الأخرى بتغطية الموضوع.[18][19]

تحدثت سكارليت جوهانسون علنًا عن موضوع التزييف العميق خِلال مقابلة لها معَ واشنطن بوست في كانون الأول/ديسمبر من عام 2018 حيثُ أعربت عن قلقها إزاء هذه «الظاهرة» ووصفت عالمَ الإنترنت بأنهُ «ثقبٌ كبيرٌ من الظلام يأكل نفسه». ومع ذلك؛ قالت سكارليت أيضًا بأنها لن تحاول إزالة أي من الفيديوهات خاصتها المُنشئة بهذه التقنيّة نظرًا لاعتقادها أنها لا تؤثر على صورتها العامة وأن القوانين في مختلف البلدان وطبيعة ثقافة الإنترنت تَجعل أيّ محاولة لإزالة هذا النوع من المُحتوى «قضية فاشلة»؛ كما استرسلت: «نحنُ معشر المشاهير نحظى بحمايةٍ بسببِ شهرتنا لكنّ قضية التزييف العميق قد تؤثر وبشكلٍ كبيرٍ على النساء ذوات الشهرة الأقل والذي يمكن أن تتعرض سمعتهنّ للتضرر في حالة ما تمّ تصويرهنّ زيفًا في فيديوهات إباحية أو شيء من هذا القَبيل.[20]»

في المجال السياسي

استُخدمت تقنيّة التزييف العميق لتشويه صورة بعض السياسيين المعروفين فعلى سبيل المثال لا الحصر استُبدل وجه الرئيس الأرجنتيني ماوريسيو ماكري بوجه أدولف هتلر كمَا استعيض عن وجه أنجيلا ميركل بقلم دونالد ترامب.[21][22] في نيسان/أبريل 2018؛ نشرَ جوردان بيل وجوناه بريتي فيديو على شكلِ إعلان خدمى عامّة يظهرُ فيه الرئيس الأمريكي السابق باراك أوباما وهوَ يتحدث حولَ خطر التزييف العميق.[23] وفي كانون الثاني/يناير 2019، بثت شبكة فوكس التلفزيونية هي الأخرى فيديو مصنوع بتقنيّة التزييف العميق «بنيّة حسنة» للرئيس ترامب خلال خطابه في المكتب البيضاوي.[24]

برامج التزييف العميق

في كانون الثاني/يناير 2018؛ أُطلق برنامج فايك آب (بالإنجليزية: FakeApp)‏ للحواسيب. يسمحُ هذا البرنامج للمستخدمين بإنشاء ومشاركة مقاطع الفيديو بسهولة مع تغيير الوجوه حيثُ يستخدم شبكة عصبية اصطناعية وقوة معالج رسومات وثلاثة إلى أربعة جيجا بايت من مساحة التخزين لإنشاء الفيديو المزيف؛ وَللحصول على معلومات مفصلة يحتاج البرنامج إلى إدخال الكثير من المواد المرئية لنفسِ الشخص لمعرفة جوانب الصورة التي يجب تبادلها باستخدام خوارزمية التزييف العميق القائمة على تسلسل الفيديو والصور.

يستخدم البرنامج عددًا من التقنيّات بما في ذلك تنسرفلو من جوجل كما يعتمدُ على خوارزميّة برنامج ديب دريم (بالإنجليزية: DeepDream)‏. بشكلٍ عام؛ يُعدّ المشاهير الموضوع الرئيسي لمقاطع الفيديو المزيفة هذه لعدّة أسباب من بينها سهولة جمع فيديوهات عنهم من النت على عكسِ الأشخاص العاديين.[25][26][27] في آب/أغسطس 2018؛ نشرَ باحثون من جامعة كاليفورنيا في بيركلي ورقة علميّة تقدم تطبيقًا للتزييف العميق يمكن أن يخلق انطباعًا جيدًا عندَ الرقص باستخدام الذكاء الاصطناعي.[28][29]

هناك أيضًا بدائل مفتوحة المصدر لبرنامج فايك آب الأصلي مثلَ ديب فايس (بالإنجليزية: DeepFace)‏،[30] فايس سواب (بالإنجليزية: FaceSwap)‏ المُستضاف حاليًا على غيت هاب،[31] وماي فايك آب (بالإنجليزية: myFakeApp)‏ المستضاف حاليًا على موقع بيت باكيت.[32][33]

الانتقادات

الانتهاكات

يقول الخبير في علوم الكمبيوتر آرجوير زيتونغ (بالإنجليزية: Aargauer Zeitung)‏ أن التلاعب بالصور ومقاطع الفيديو باستخدام الذكاء الاصطناعي يُمكن أن يصبح ظاهرة جماعية خطيرة. ومع ذلك؛ فإن هذا التخوّف هو نفسه الذي شعرَ به الكل حينما ظهرت للوجود برامج تحرير الفيديو وبرامج تحرير الصور.[21] بشكلٍ عام؛ تبقى قُدرة البشر على التمييز بين الفيديو المزوّر والآخر الحقيقي هي العامِل الأهم في التأثير إيجابيًا أم سلبيًا على هذه التقنيّة.[34][35]

المصداقية

إنّ الفشل في التمييز بين الفيديو المزيّف والآخر الحقيقي قد يؤثر بشكلٍ كبيرٍ جدًا على كل الفيديوهات المنشورة على الويب كما سيخلق الكثير من الجدل عندَ نشر كل فيديو حتى لو كانَ صحيحًا. في هذا السياق؛ يقولُ الباحث في الذكاء الاصطناعى أليكس شامباندارد «إنه يجب على كل شخص أن يعرفَ أن المشكلة ليست مشكلة تقنية بقدرِ ما هي مُشكلة ثقة في المعلومات التي تُقدّمها وسائل الإعلام وَالصحافة.» ويُواصل: «المشكلة الأساسية هي أن الإنسانية يمكن أن تقع في عصرٍ لم يعد فيهِ من الممكن تحديد ما إذا كان محتوى صورة أو فيديو ما حقيقيًا أم لا![21]»

ردود الفعل على الإنترنت

أعلنت بعض مواقع الويب مثلَ تويتر وجي إف واي كات أنها ستحذف المحتوى المصنوع عبر تقنيّة التزييف العميق كما ستحظر ناشر مثل هذا النوع من المُحتوى. في السابق؛ منعت منصة الدردشة ديسكورد تداول وتبادل مقاطع الفيديو الإباحية المشهورة المزيفة ونفس الأمر فعلهُ الموقع الإباحي بورن هاب ومع ذلك؛ فقد أفيد أن الموقع لم يقم بحظرٍ شامل لهذا المحتوى.[36][37] أمّا في رديت فقد ظل الوضع في البداية غير واضح حتى 7 شباط/فبراير 2018 عندما بدأَ الموقع في حظر كل من ينشر أو يتبادل تلك النوعيّة من الفيديوهات بدعوى خرق سياسة الموقع.[19][38][39][40] وَفي سبتمبر 2018؛ أضافَ موقع جوجل «الصور الإباحية الاصطناعية» لقائمة النتائج الممنوعة من الظهور.[41]

ملاحظات

  1. ^ تُعدّ هذه العبارة حديثة العهد في اللغة الإنجليزية؛ حيثُ صِيغت لأوّل مرة عام 2017.[2]

المراجع

  1. ^ Q111421033، ص. 62، QID:Q111421033
  2. ^ Brandon, John (16 Feb 2018). "Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise". Fox News (بen-US). Archived from the original on 2018-06-15. Retrieved 2018-02-20.{{استشهاد بخبر}}: صيانة الاستشهاد: لغة غير مدعومة (link)
  3. ^ Schwartz, Oscar (12 Nov 2018). "You thought fake news was bad? Deep fakes are where truth goes to die". The Guardian (بEnglish). Archived from the original on 2019-06-16. Retrieved 2018-11-14.
  4. ^ "Experts fear face swapping tech could start an international showdown". The Outline (بEnglish). Archived from the original on 2019-04-10. Retrieved 2018-02-28.
  5. ^ Roose, Kevin (4 Mar 2018). "Here Come the Fake Videos, Too". The New York Times (بen-US). ISSN:0362-4331. Archived from the original on 2019-06-18. Retrieved 2018-03-24.{{استشهاد بخبر}}: صيانة الاستشهاد: لغة غير مدعومة (link)
  6. ^ Bregler، Christoph؛ Covell، Michele؛ Slaney، Malcolm (1997). "Video Rewrite: Driving Visual Speech with Audio". Proceedings of the 24th Annual Conference on Computer Graphics and Interactive Techniques. ج. 24: 353–360. مؤرشف من الأصل في 2020-05-19. {{استشهاد بدورية محكمة}}: الوسيط غير المعروف |بواسطة= تم تجاهله يقترح استخدام |via= (مساعدة)
  7. ^ Suwajanakorn، Supasorn؛ Seitz، Steven M.؛ Kemelmacher-Shlizerman، Ira (يوليو 2017). "Synthesizing Obama: Learning Lip Sync from Audio". ACM Trans. Graph. ج. 36.4: 95:1–95:13. مؤرشف من الأصل في 2020-05-19. {{استشهاد بدورية محكمة}}: الوسيط غير المعروف |بواسطة= تم تجاهله يقترح استخدام |via= (مساعدة)
  8. ^ Thies، Justus؛ Zollhöfer، Michael؛ Stamminger، Marc؛ Theobalt، Christian؛ Nießner، Matthias (يونيو 2016). "Face2Face: Real-Time Face Capture and Reenactment of RGB Videos". IEEE: 2387–2395. DOI:10.1109/CVPR.2016.262. ISBN:9781467388511. مؤرشف من الأصل في 2019-08-24. {{استشهاد بدورية محكمة}}: يحتوي الاستشهاد على وسيط غير معروف وفارغ: |بواسطة= (مساعدة)
  9. ^ أ ب Cole، Samantha (24 يناير 2018). "We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now". Vice. مؤرشف من الأصل في 2019-09-07. اطلع عليه بتاريخ 2019-05-04.
  10. ^ Haysom، Sam (31 يناير 2018). "People Are Using Face-Swapping Tech to Add Nicolas Cage to Random Movies and What Is 2018". Mashable. مؤرشف من الأصل في 2019-07-24. اطلع عليه بتاريخ 2019-04-04.
  11. ^ Cole، Samantha (11 ديسمبر 2017). "AI-Assisted Fake Porn Is Here and We're All Fucked". Vice. مؤرشف من الأصل في 2019-09-07. اطلع عليه بتاريخ 2018-12-19.
  12. ^ أ ب Hathaway، Jay (8 فبراير 2018). "Here's where 'deepfakes,' the new fake celebrity porn, went after the Reddit ban". The Daily Dot. مؤرشف من الأصل في 2019-07-06. اطلع عليه بتاريخ 2018-12-22.
  13. ^ "r/SFWdeepfakes". Reddit. مؤرشف من الأصل في 2019-08-09. اطلع عليه بتاريخ 2018-12-12.
  14. ^ Roettgers, Janko (21 Feb 2018). "Porn Producers Offer to Help Hollywood Take Down Deepfake Videos". Variety (بen-US). Archived from the original on 2019-06-10. Retrieved 2018-02-28.{{استشهاد بخبر}}: صيانة الاستشهاد: لغة غير مدعومة (link)
  15. ^ "It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet" (بEnglish). Archived from the original on 2019-04-10. Retrieved 2018-02-20.
  16. ^ Kharpal، Arjun (8 فبراير 2018). "Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor". CNBC. مؤرشف من الأصل في 2019-04-10. اطلع عليه بتاريخ 2018-02-20.
  17. ^ "PornHub, Twitter Ban 'Deepfake' AI-Modified Porn". PCMAG (بEnglish). Archived from the original on 2019-04-10. Retrieved 2018-02-20.
  18. ^ AI-Assisted Fake Porn Is Here and We’re All Fucked، Motherboard، 11 ديسمبر 2017، مؤرشف من الأصل في 2019-05-05
  19. ^ أ ب Markus Böhm (7 فبراير 2018)، "Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor، Spiegel Online، مؤرشف من الأصل في 2019-09-23
  20. ^ "Scarlett Johansson on fake AI-generated sex videos: 'Nothing can stop someone from cutting and pasting my image'". The Washington Post. 31 ديسمبر 2018. مؤرشف من الأصل في 2019-06-13. اطلع عليه بتاريخ 2019-06-19.
  21. ^ أ ب ت "Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos". az Aargauer Zeitung. 3 فبراير 2018. مؤرشف من الأصل في 2019-04-13.
  22. ^ Patrick Gensing. "Deepfakes: Auf dem Weg in eine alternative Realität?". مؤرشف من الأصل في 2018-09-09.
  23. ^ Romano، Aja (18 أبريل 2018). "Jordan Peele's simulated Obama PSA is a double-edged warning against fake news". Vox. مؤرشف من الأصل في 2019-06-11. اطلع عليه بتاريخ 2018-09-10.
  24. ^ Swenson, Kyle (11 Jan 2019). "A Seattle TV station aired doctored footage of Trump's Oval Office speech. The employee has been fired". The Washington Post (بEnglish). Archived from the original on 2019-04-15. Retrieved 2019-01-11.
  25. ^ Britta Bauchmüller، "Fake-App": Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht!، Berliner-Kurier.de، مؤرشف من الأصل في 2019-08-28
  26. ^ Eike Kühl (26 يناير 2018)، Künstliche Intelligenz: Auf Fake News folgt Fake Porn، Die Zeit، ISSN:0044-2070، مؤرشف من الأصل في 2019-05-24
  27. ^ heise online، Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien، مؤرشف من الأصل في 2019-12-12
  28. ^ Farquhar, Peter (27 Aug 2018). "An AI program will soon be here to help your deepfake dancing – just don't call it deepfake". Business Insider Australia (بEnglish). Archived from the original on 2019-04-10. Retrieved 2018-08-27.
  29. ^ "Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted". The Verge. مؤرشف من الأصل في 2019-05-17. اطلع عليه بتاريخ 2018-08-27.
  30. ^ "DeepFaceLab is a tool that utilizes machine learning to replace faces in videos. Includes prebuilt ready to work standalone Windows 7,8,10 binary (look readme.md).: iperov/DeepFaceLab". 19 يونيو 2019. مؤرشف من الأصل في 2019-05-09.
  31. ^ "Build software better, together". GitHub. مؤرشف من الأصل في 2019-06-20.
  32. ^ "Bitbucket". bitbucket.org. مؤرشف من الأصل في 2019-04-10.
  33. ^ Fiske، Tormod. "Imagining Deceptive Deepfakes" (PDF). www.duo.uio.no. مؤرشف من الأصل (PDF) في 2019-03-07. اطلع عليه بتاريخ 2019-06-19.
  34. ^ Künstliche Intelligenz: Selfies sind eine gute Quelle، Die Zeit، 26 يناير 2018، ISSN:0044-2070، مؤرشف من الأصل في 2019-05-25
  35. ^ „Deepfake“ – FakeApp kann Personen in Pornos austauschen – Welche Rechte haben Geschädigte?، WILDE BEUGER SOLMECKE Rechtsanwälte، 2 فبراير 2018، مؤرشف من الأصل في 2019-04-13
  36. ^ "Pornhub hasn't been actively enforcing its deepfake ban". Engadget (بen-US). Archived from the original on 2019-04-10. Retrieved 2018-04-21.{{استشهاد بخبر}}: صيانة الاستشهاد: لغة غير مدعومة (link)
  37. ^ "Pornhub Banned Deepfake Celebrity Sex Videos, But The Site Is Still Full Of Them". BuzzFeed (بEnglish). Archived from the original on 2018-06-20. Retrieved 2018-04-21.
  38. ^ barbara.wimmer، Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos، مؤرشف من الأصل في 2018-02-08
  39. ^ heise online. "Deepfakes: Auch Reddit verbannt Fake-Porn". مؤرشف من الأصل في 2019-04-10.
  40. ^ "Reddit verbannt Deepfake-Pornos". مؤرشف من الأصل في 2019-04-10.
  41. ^ Washington Post. "Fake-porn videos are being weaponized to harass and humiliate women: 'Everybody is a potential target'". مؤرشف من الأصل في 2019-06-14.