هذه المقالة يتيمة. ساعد بإضافة وصلة إليها في مقالة متعلقة بها

الشبكات العصبية للرسم البياني

من أرابيكا، الموسوعة الحرة

هذه هي النسخة الحالية من هذه الصفحة، وقام بتعديلها عبود السكاف (نقاش | مساهمات) في 17:07، 17 نوفمبر 2023 (بوت: أضاف قالب:ضبط استنادي). العنوان الحالي (URL) هو وصلة دائمة لهذه النسخة.

(فرق) → نسخة أقدم | نسخة حالية (فرق) | نسخة أحدث ← (فرق)
اذهب إلى التنقل اذهب إلى البحث

الشبكات العصبية للرسم البياني أو الشبكة العصبية الشبكية[1] (بالانجليزية: Graph Neural Network) هي نوع من أنواع الشبكات العصبية الاصطناعية المستخدمة في معالجة البيانات التي يمكن تمثيلها من خلال الرسوم البيانية.[2][3][4]

الرسوم البيانية تتكون بالعادة من عدد محدود من العقد أو النقاط الموصول بينها بخطوط أو أسهم.

اللبنات الأساسية للشبكة العصبية لـلرسوم البيانية. (1) طبقة التبديل المتكافئ (المزدوج). (2) طبقة التجميع المحلية. (3) طبقة التجميع (أو القراءة) الشاملة. تشير الألوان إلى الميزات .

بشكل عام في التعلم العميق الهندسي (بالانجليزية: Geometry Deep Learning) يمكننا تكييف بنية أي نوع من البيانات على شكل رسوم بيانية[5] فعلى سبيل المثال يمكننا اعتبار الشبكات العصبية الالتفافية (بالانجليزية: Convolutional Neural Network) على أنها عبارة عن رسوم بيانية بحيث تتمثل من خلالها كل نقطة (بكسل) في الصورة على شكل عقدة في الرسوم البيانية. أو كمثال آخر يمكننا تمثيل الكلمات في الجمل على شكل عقد للرسم البياني.

العنصرالأساسي في تصميم الشبكات العصبية للرسم البياني هو استخدام تمرير الرسائل المزدوج، مثل أن تقوم عقد الرسم البياني بتحديث تمثيلاتها بشكل متكرر من خلال تبادل المعلومات مع جيرانها. منذ نشأة هذا النوع من الشبكات العصبية، تم اقتراح العديد من أساليب بنائها،[2][6][7][7] والتي تنفذ صيغًا مختلفة لتمريرالرسائل.[5] اعتبارًا من عام 2022، بدأ التساؤل حول إمكانية إيجاد معماريات «تتجاوز» عملية تمرير الرسائل، أو إذا كان من الممكن اقتراح طرق مختلفة لتمرير الرسائل لكل نوع من أنواع الرسوم البيانية بحيث تكون ملائمة بشكل أفضل لطريقة عملها، هذه التساؤلات يمكن أن تكون موضوع لمشكلة بحث جديدة.[8]

تشمل تطبيقات الشبكات العصبية للرسوم البيانية: الشبكات الاجتماعية،[9] والشبكات المتعلقة بالتضمين والاقتباس، [10] والبيولوجيا الجزيئية،[11] والكيمياء،[12] والفيزياء[13] ومشاكل التحسين الاندماجي الصعب NP.[14]

هناك العديد من المكتبات المفتوحة التي تقوم بإنشاء أو التعامل مع الشبكات العصبية للرسوم البيانية مثل باي تورش[15] وتنسرفلو[16] وجارب.[17]

معمارية البناء

يتم تنفيذ هذه الطبقات الأساسية عند بناء الشبكات العصبية للرسوم البيانية:[5]

  1. التبديل التكافؤي: في هذه الطبقة يتم إنشاء تمثيلا مكافئا للرسم البياني من خلال تبادل الرسائل بين العقد.[5][8] يتم هذا التبادل عن طريق استلام العقد للرسائل من الجيران المباشرين لها. وبهذا تمر كل رسالة من خلال قفزة واحدة بين العقد.
  2. التجميع المحلي: تعمل هذه الطبقة على تجميع العقد القريبة المشابهة ضمن مجموعات مع الحفاظ على خصائصها وتعرف هذه العملية بالاختزال. وتشبه إلى حد كبيرعملية التجميع في الشبكات العصبية الالتفافية. ومن الأمثلة على هذه الطبقة: تجميع العقد القريبة (بالانجليزية: k-nearest neighbors) وتجميع أعلى قيم لاسقاط العقد[18] وتجميع التركيز الذاتي.[19]
  3. التجميع الشامل: توفر طبقة التجميع الشامل، والمعروفة أيضًا باسم طبقة القراءة، تمثيلًا للرسم البياني بأكمله بحيث يكون هذا التمثيل ثابتا في الحجم. يجب أن تكون طبقة التجميع الشاملة ثابته التبديل، بحيث لا تُغيرالتباديل في ترتيب عقد الرسم البياني والحواف الناتج النهائي للرسم البياني.[20] مثل إيجاد مجموع العناصر أو المتوسط أو الحد الأقصى.

عمليا، وجود هياكل مختلفة للرسم البياني (على سبيل المثال، جزيئات لها نفس الذرات ولكن بروابط مختلفة) لا يمكن تمييزها بواسطة الشبكات العصبية للرسوم البيانية.[21][22] حيث تحتاج لشبكات أكثر قوة تعمل على مستوى الأشكال الهندسية مثل المجمعات البسيطة.[23] اعتبارًا من عام 2022 ستكون إحدى المسائل البحثية تكمن في الإجابة عن ما إذا كان بإمكان البنى المستقبلية للشبكات العصبية للرسوم البيانية التغلب على وجود الرسائل البدائية أم لا.[8]

الرسوم البيانية غير المتماثلة التي لا يمكن تمييزها بواسطة الشبكات العصبية للرسوم البيانية. تشير الألوان إلى ميزات العقدة.

طبقات تمرير الرسالة

تحديث تمثيل العقدة في طبقة الشبكة العصبية لتمرير الرسائل. العقدة x0 تتلقى الرسائل المرسلة من جميع جيرانها المباشرين x1 إلى x4 . الرسائل تحسب عبر وظيفة الرسائل ϕ، والتي تمثل ميزات كل من المرسل والمستقبل.

هي طبقات يتم من خلالها تمرير الرسائل عبر الشبكات العصبية تكون محملة بمعلومات عن الرسم البياني. وكما ذكر سابقا تتم عملية التبادل بشكل مكافئ (مزدوج).[5]

لنفترض أن الرسم البياني G=(V,E)، حيث V هي مجموعة العقد و E هي مجموعة الحواف أو الروابط بين العقد. يمثل Nu العقد المجاورة لعقدة uV . بالإضافة إلى ذلك، تعبر xu عن مجموعة الخصائص للعقدة uV، و euv تمثل خصائص الروابط بين (u,v)E . فيمكن التعبير عن طبقة تبادل الرسائل من خلال:[5]

hu=ϕ(xu,vNuψ(xu,xv,euv))

حيث ϕ و ψ عبارة عن دالتين قابلتين للاشتقاق (على سبيل المثال، الشبكات العصبية الاصطناعية)، و هو عامل تجميع ثابت للتبديل يمكنه قبول عدد كبير ومختلف من المدخلات (على سبيل المثال، مجموع العناصر، أو الوسط الحسابي، أو الحد الأقصى). وعلى سبيل الخصوص، ϕ و ψ تشيران على التوالي إلى وظيفتي التحديث والتراسل. ولذلك، في المجموعة الحسابية لـطبقة تبادل الرسائل، تقوم عُقد الرسم البياني بتحديث تمثيلاتها من خلال تجميع الرسائل المستلمة من جيرانها.

مخرجات طبقة أو عدة طبقات من تبادل الرسائلhu هي تمثيلات لكل عقدة uV في الرسم البياني. يمكن استخدام تمثيلات العقدة في أي مهمة نهائية، مثل تصنيف العقدة / الرسم البياني أو التنبؤ بالحافة. والتي يمكن استخدامها في تصنيف العقد أو تصنيف الرسم البياني أو التنبؤ بالروابط بين هذه العقد. تجميع هذه التمثيلات من العقد المباشرين على هذا النحو سيكدس مجموعة من طبقات تبادل الرسائل عند كل عقدة بحيث يجعلها قادرة على التواصل مع عقد أبعد. من حيث المبدأ، للتأكد من أن كل عقدة تتلقى معلومات من كل العقد الأخرى، ستحتاج كل عقدة إلى تكديس عدد من طبقات تبادل الرسائل مساوية لقيمة عدد العقد الموجودة في طريق الوصول لأبعد نقطة عن تلك العقدة باستخدام أقصر طريق في الرسم البياني (قطر الرسم البياني). ومع ذلك، فإن تكديس العديد من طبقات تبادل الرسائل قد يتسبب في حدوث مشكلات مثل التسوية الزائدة[24] والإفراط في السحق.[25] تشير التسوية المفرطة إلى مشكلة عدم إمكانية تمييز تمثيلات العقدة. ويشير الإفراط في السحق إلى عنق الزجاجة الذي تم إنشاؤه عن طريق الضغط على التبعيات بعيدة المدى في تمثيلات ذات حجم ثابت. يمكن للإجراءات المضادة مثل تخطي الاتصالات[7][26] (كما هو الحال في الشبكات العصبية المتبقية)، وقواعد التحديث المحدود[27] والقفز المعرفي[28] أن يخفف من التسوية الزائدة. ويمكن أن يؤدي تعديل الطبقة النهائية لتكون طبقة متجاورة تمامًا، أي من خلال اعتبار الرسم البياني كرسم بياني كامل، على التخفيف من الانهيار المفرط في المشكلات التي تتطلب تبعيات بعيدة المدى.[25]

تم تطوير طرق أخرى لشبكة تبادل الرسائل في الأبحاث،[5] مثل الشبكات الالتفافية للرسم البياني[6] وشبكات تركيز الرسم البياني،[7] التي يمكن التعبير عن تعريفاتها من حيث شكليات تبادل الرسائل.

شبكة الرسم البياني الالتفافية

تم تقديم الشبكة الالتفافية للرسم البياني (GCN) لأول مرة بواسطة توماس كيبف وماكس ويلنج في عام 2017.[6]

وتمثل هذه الطبقة صورة طيفية أولية عن الرسم البياني.

يعبر عن الشبكة الالتفافية للرسم البياني من خلال:

H=σ(D~12A~D~12XΘ)

H: مصفوفة تمثيلات العقد hu.

X: مصفوفة ميزات العقدة xu.

σ(): علاقة تنشيط مثل (ReLU).

A~ وD~: تشيران على التوالي لمصفوفتي تجاور الرسم البياني ودرجة الرسم البياني (بوجود الحلقات الذاتية في كلا المصفوفتين).

Θ: مصفوفة العوامل القابلة للتدريب.

يمكن تحديد A~=A+I و D~ii=jVA~ij.

تشير I إلى مصفوفة الوحدة. يضمن وجود هذه المعايرة أن تكون قيم D~12A~D~12 محددة ضمن [0,1] لتجنب عدم الاستقرار العددي.

يتمثل أحد قيود هذه الشبكات في عدم سماحها بتعيين ميزات حافة متعددة الأبعاد euv.[6] ومع ذلك، من الممكن ربط الأوزان العددية wuv بأي حافة Auv=wuv عن طريق تعيين قيم غير صفرية في المصفوفة المجاورة مساوية لوزن الحافة المقابلة.

شبكة التركيز للرسوم البيانية

تم تقديم شبكة الانتباه بالرسم البياني بواسطة بيتر فيليكوفيك وآخرين في عام 2018.[7]

شبكة التركيز للرسم البياني عبارة عن مزيج من الشبكات العصبية للرسم البياني وطبقة التركيز. يساعد وجود هذه الطبقة في الشبكات العصبية الرسومية على التركيز على المعلومات المهمة في البيانات بدلاً من التركيز على البيانات بأكملها.

يمكن التعبير عن شبكة التركيز للرسوم البيانية متعددة الرؤوس على النحو التالي:

hu=k=1Kσ(vNuαuvWkxv)

K: عدد رؤوس التركيز.

: تسلسل المتجه.

αij: هي معاملات التركيز.

σ(): علاقة تنشيط مثل (ReLU).

Wk: مصفوفة عوامل رؤوس التركيز القابلة للتدريب بالنسبة للطبقة النهائية من طبقات التركيز، يتم حساب متوسط المخرجات من كل رأس تركيز قبل تطبيق وظيفة التنشيط. رسميًا، يمكن كتابة هذه الطبقة النهائية على النحو التالي:

hu=σ(1Kk=1KvNuαuvWkxv)

التركيز في التعلم الآلي هو أسلوب محاكاة للانتباه المعرفي. في سياق التعلم على الرسوم البيانية، معامل الانتباه αuv يقيس مدى أهمية العقدة uV بالنسبة إلى عقدة أخرى vV .

تُتُحسب معاملات التركيز المعيارية على النحو التالي:

αuv=exp(LeakyReLU(aT[WhuWhveuv]))zNuexp(LeakyReLU(aT[WhuWhzeuz]))

a: هو متجه الأوزان القابلة للتعلم.

T: يشير إلى التبديل.

LeakyReLU: هي ReLU معدل.

يتم معايرة معاملات التركيز لجعلها قابلة للمقارنة بسهولة عبر العقد المختلفة.[7]

يمكن رؤية الشبكات الالتفافية للرسوم البيانية كحالة خاصة لـشبكة التركيز حيث معاملات الانتباه غير قابلة للتعلم، ولكنها ثابتة وتساوي أوزان الحافة wuv .

الشبكة العصبية للرسوم البيانية المتسلسلة ذات البوابات

تتم تقديم الشبكة العصبية لتسلسل الرسم البياني بواسطة يوجيا لي وآخرين. في عام 2015.[27] تم توسيع وتعديل صياغة هذه الشبكة بواسطة سكارسيلي وآخرين[2] لإخراج التسلسلات. يتم تنفيذ إطار عمل تمرير الرسائل كقاعدة تحديث لخلية وحدة متكررة ذات بوابة.

يمكن التعبير عن هذه الشبكة من خلال:

hu(0)=xu0
mu(l+1)=vNuΘhv
hu(l+1)=GRU(mu(l+1),hu(l))

أين يشير إلى تسلسل المتجه.

0:: متجه صفري.

Θ:: هي مصفوفة من العوامل القابلة للتعلم.

GRU: عبارة عن خلية وحدة متكررة ذات بوابة (بالإنجليزية: Gated recurrent unit).

l: فهرس التسلسل.

طبقات التجميع المحلية

تعمل طبقات التجميع المحلية على زيادة اختزال الرسم البياني. تم تقديم واقتراح العديد من استراتيجيات التجميع المحلية القابلة للتعلم.[20] لكل حالة، المدخل هو الرسم البياني الأولي الذي يتم تمثيله بواسطة مصفوفة X التي تحمل ميزات العقدة ومصفوفة A التي تمثل المصفوفة المجاورة للرسم البياني. والناتج هو المصفوفة الجديدة X من ميزات العقدة ومصفوفة مجاورة للرسم البياني الجديد A .

تجميع أعلى قيم لإسقاط العقد

أولا نجعل

y=Xpp

بحيث p متجه الاسقاط القابل للتعلم. ويتم حساب قيمة هذا الاسقاط (ليس كمتجه).

يمكن بعد ذلك التعبير عن هذه الطبقة على النحو التالي:[18]

X=(Xsigmoid(y))i
A=Ai,i

i=topk(y) وهي المجموعة الفرعية من العقد ذات أعلى قيم إسقاط، وتشير إلى ضرب المصفوفة حسب العنصر، و sigmoid() هي وظيفة السيني التي تجعل متجه الإسقاط قابلا للتدريب عن طريق الانتشار المتراجع والتي تنتج مخرجات منفصلة.[18] يتم الاحتفاظ بالعقد ذات أعلى درجات إسقاط في مصفوفة التجاور الجديدة A.

تجميع التركيز الذاتي

بداية نجعل

y=GNN(X,A)

حيث GNN هي الطبقة المكافئة لأي من طبقات التبديل السابقة.

هذه الطبقة يمكن التعبير عنها من خلال:[19]

X=(Xy)i
A=Ai,i

حيث i=topk(y) كما أشرنا لها سابقا، و هي ضرب المصفوفة حسب العنصر.

يمكن النظر إلى طبقة تجميع التركيز الذاتي على أنها امتداد لطبقة تجمع أعلى نقاط الإسقاط. لكن تختلف عن هذه الطبقة بحسابها لدرجات التركيز الذاتي لكل من ميزات الرسم البياني وطوبولوجيا الرسم البياني.

التطبيقات

طيّ البروتين

الشبكات العصبية للرسم البياني هي إحدى اللبنات الأساسية لبرنامج ألفا-فولد، وهو برنامج ذكاء اصطناعي طورته شركة جوجل: ديب-مايند لحل مشكلة طي البروتين في علم الأحياء. حقق هذا البرنامج المركز الأول في العديد من المسابقات.[28][29][30]

الشبكات الاجتماعية

الشبكات الاجتماعية هي مجال تطبيق رئيسي لهذه الشبكات بسبب تمثيلها الطبيعي كرسم بياني اجتماعي. يتم استخدام شبكات الرسم البياني لتطوير أنظمة التوصية على أساس كل من العلاقات الاجتماعية وعلاقات العناصر.[9][31]

الاستمثال التوافقي

يتم استخدام الشبكات العصبية للرسم البياني كعناصر بناء أساسية للعديد من خوارزميات التحسين التوافقي.[32] تشمل الأمثلة على حساب المسارات الأقصر أو دوائر أويلريان لرسم بياني معين،[27] اشتقاق مواضع رقاقة متفوقة أو منافسة للحلول البشرية المصنوعة يدويًا،[33] وتحسين قواعد التفريع المصممة من قبل الخبراء في الفرع والربط.

مراجع

  1. ^ Q111421033، ص. 73، QID:Q111421033
  2. ^ أ ب ت Scarselli، Franco؛ Gori، Marco؛ Tsoi، Ah Chung؛ Hagenbuchner، Markus؛ Monfardini، Gabriele (2009-01). "The Graph Neural Network Model". IEEE Transactions on Neural Networks. ج. 20 ع. 1: 61–80. DOI:10.1109/TNN.2008.2005605. ISSN:1941-0093. مؤرشف من الأصل في 5 نوفمبر 2022. {{استشهاد بدورية محكمة}}: تحقق من التاريخ في: |تاريخ= (مساعدة)
  3. ^ Sanchez-Lengeling، Benjamin؛ Reif، Emily؛ Pearce، Adam؛ Wiltschko، Alex (17 أغسطس 2021). "A Gentle Introduction to Graph Neural Networks". Distill. ج. 6 ع. 8: 10.23915/distill.00033. DOI:10.23915/distill.00033. ISSN:2476-0757. مؤرشف من الأصل في 2022-11-12.
  4. ^ Daigavane، Ameya؛ Ravindran، Balaraman؛ Aggarwal، Gaurav (17 أغسطس 2021). "Understanding Convolutions on Graphs". Distill. ج. 6 ع. 8: 10.23915/distill.00032. DOI:10.23915/distill.00032. ISSN:2476-0757. مؤرشف من الأصل في 2022-10-20.
  5. ^ أ ب ت ث ج ح خ Bronstein، Michael M.؛ Bruna، Joan؛ Cohen، Taco؛ Veličković، Petar (2 مايو 2021). "Geometric Deep Learning: Grids, Groups, Graphs, Geodesics, and Gauges". arXiv:2104.13478 [cs, stat]. مؤرشف من الأصل في 2022-11-19.
  6. ^ أ ب ت ث Kipf، Thomas N.؛ Welling، Max (22 فبراير 2017). "Semi-Supervised Classification with Graph Convolutional Networks". arXiv:1609.02907 [cs, stat]. مؤرشف من الأصل في 2022-11-19.
  7. ^ أ ب ت ث ج ح Veličković، Petar؛ Cucurull، Guillem؛ Casanova، Arantxa؛ Romero، Adriana؛ Liò، Pietro؛ Bengio، Yoshua (4 فبراير 2018). "Graph Attention Networks". arXiv:1710.10903 [cs, stat]. مؤرشف من الأصل في 2022-11-19.
  8. ^ أ ب ت Veličković، Petar (22 فبراير 2022). "Message passing all the way up". arXiv:2202.11097 [cs, stat]. مؤرشف من الأصل في 2022-11-13.
  9. ^ أ ب Ying, Rex; He, Ruining; Chen, Kaifeng; Eksombatchai, Pong; Hamilton, William L.; Leskovec, Jure (19 Jul 2018). "Graph Convolutional Neural Networks for Web-Scale Recommender Systems". Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining (بEnglish). London United Kingdom: ACM: 974–983. DOI:10.1145/3219819.3219890. ISBN:978-1-4503-5552-0. Archived from the original on 2022-11-12.
  10. ^ "Stanford Large Network Dataset Collection". snap.stanford.edu. مؤرشف من الأصل في 2022-10-31. اطلع عليه بتاريخ 2022-11-12.
  11. ^ Gilmer، Justin؛ Schoenholz، Samuel S.؛ Riley، Patrick F.؛ Vinyals، Oriol؛ Dahl، George E. (12 يونيو 2017). "Neural Message Passing for Quantum Chemistry". arXiv:1704.01212 [cs]. مؤرشف من الأصل في 2022-11-21.
  12. ^ Coley, Connor W.; Jin, Wengong; Rogers, Luke; Jamison, Timothy F.; Jaakkola, Tommi S.; Green, William H.; Barzilay, Regina; Jensen, Klavs F. (2019). "A graph-convolutional neural network model for the prediction of chemical reactivity". Chemical Science (بEnglish). 10 (2): 370–377. DOI:10.1039/C8SC04228D. ISSN:2041-6520. PMID:30746086. Archived from the original on 2022-10-31. {{استشهاد بدورية محكمة}}: no-break space character في |الأول= في مكان 7 (help) and الوسيط غير المعروف |PMCID= تم تجاهله يقترح استخدام |pmc= (help)
  13. ^ Qasim, Shah Rukh; Kieseler, Jan; Iiyama, Yutaro; Pierini, Maurizio (2019-07). "Learning representations of irregular particle-detector geometry with distance-weighted graph networks". The European Physical Journal C (بEnglish). 79 (7): 608. DOI:10.1140/epjc/s10052-019-7113-9. ISSN:1434-6044. Archived from the original on 2022-11-24. {{استشهاد بدورية محكمة}}: تحقق من التاريخ في: |تاريخ= (help)
  14. ^ Li، Zhuwen؛ Chen، Qifeng؛ Koltun، Vladlen (24 أكتوبر 2018). "Combinatorial Optimization with Graph Convolutional Networks and Guided Tree Search". arXiv:1810.10659 [cs, stat]. مؤرشف من الأصل في 2022-10-20.
  15. ^ Fey، Matthias؛ Lenssen، Jan Eric (25 أبريل 2019). "Fast Graph Representation Learning with PyTorch Geometric". arXiv:1903.02428 [cs, stat]. مؤرشف من الأصل في 2022-10-22.
  16. ^ TensorFlow GNN، 9 نوفمبر 2022، مؤرشف من الأصل في 2022-10-20، اطلع عليه بتاريخ 2022-11-12
  17. ^ Jraph - A library for graph neural networks in jax.، 9 نوفمبر 2022، مؤرشف من الأصل في 2022-11-23، اطلع عليه بتاريخ 2022-11-12
  18. ^ أ ب ت Gao، Hongyang؛ Ji، Shuiwang (11 مايو 2019). "Graph U-Nets". arXiv:1905.05178 [cs, stat]. مؤرشف من الأصل في 2022-10-22.
  19. ^ أ ب Lee، Junhyun؛ Lee، Inyeop؛ Kang، Jaewoo (13 يونيو 2019). "Self-Attention Graph Pooling". arXiv:1904.08082 [cs, stat]. مؤرشف من الأصل في 2022-11-24.
  20. ^ أ ب Liu، Chuang؛ Zhan، Yibing؛ Li، Chang؛ Du، Bo؛ Wu، Jia؛ Hu، Wenbin؛ Liu، Tongliang؛ Tao، Dacheng (15 أبريل 2022). "Graph Pooling for Graph Neural Networks: Progress, Challenges, and Opportunities". arXiv:2204.07321 [cs]. مؤرشف من الأصل في 2022-10-20.
  21. ^ Douglas، B. L. (27 يناير 2011). "The Weisfeiler-Lehman Method and Graph Isomorphism Testing". arXiv:1101.5211 [math]. مؤرشف من الأصل في 2022-10-18.
  22. ^ Xu، Keyulu؛ Hu، Weihua؛ Leskovec، Jure؛ Jegelka، Stefanie (22 فبراير 2019). "How Powerful are Graph Neural Networks?". arXiv:1810.00826 [cs, stat]. مؤرشف من الأصل في 2022-11-19.
  23. ^ Bodnar، Cristian؛ Frasca، Fabrizio؛ Wang، Yu Guang؛ Otter، Nina؛ Montúfar، Guido؛ Liò، Pietro؛ Bronstein، Michael (14 يونيو 2021). "Weisfeiler and Lehman Go Topological: Message Passing Simplicial Networks". arXiv:2103.03212 [cs]. مؤرشف من الأصل في 2022-11-12.
  24. ^ Chen، Deli؛ Lin، Yankai؛ Li، Wei؛ Li، Peng؛ Zhou، Jie؛ Sun، Xu (3 أبريل 2020). "Measuring and Relieving the Over-Smoothing Problem for Graph Neural Networks from the Topological View". Proceedings of the AAAI Conference on Artificial Intelligence. ج. 34 ع. 04: 3438–3445. DOI:10.1609/aaai.v34i04.5747. ISSN:2374-3468. مؤرشف من الأصل في 2022-11-12.
  25. ^ أ ب Alon، Uri؛ Yahav، Eran (9 مارس 2021). "On the Bottleneck of Graph Neural Networks and its Practical Implications". arXiv:2006.05205 [cs, stat]. مؤرشف من الأصل في 2022-10-20.
  26. ^ Xu، Keyulu؛ Zhang، Mozhi؛ Jegelka، Stefanie؛ Kawaguchi، Kenji (26 مايو 2021). "Optimization of Graph Neural Networks: Implicit Acceleration by Skip Connections and More Depth". arXiv:2105.04550 [cs, math, stat]. مؤرشف من الأصل في 2022-10-22.
  27. ^ أ ب ت Li، Yujia؛ Tarlow، Daniel؛ Brockschmidt، Marc؛ Zemel، Richard (22 سبتمبر 2017). "Gated Graph Sequence Neural Networks". arXiv:1511.05493 [cs, stat]. مؤرشف من الأصل في 2022-10-31.
  28. ^ أ ب Xu، Keyulu؛ Li، Chengtao؛ Tian، Yonglong؛ Sonobe، Tomohiro؛ Kawarabayashi، Ken-ichi؛ Jegelka، Stefanie (25 يونيو 2018). "Representation Learning on Graphs with Jumping Knowledge Networks". arXiv:1806.03536 [cs, stat]. مؤرشف من الأصل في 2022-11-18.
  29. ^ "Google's DeepMind predicts 3D shapes of proteins". the Guardian (بEnglish). 2 Dec 2018. Archived from the original on 2022-11-10. Retrieved 2022-11-12.
  30. ^ "DeepMind's protein-folding AI has solved a 50-year-old grand challenge of biology". MIT Technology Review (بEnglish). Archived from the original on 2022-11-15. Retrieved 2022-11-12.
  31. ^ Fan, Wenqi; Ma, Yao; Li, Qing; He, Yuan; Zhao, Eric; Tang, Jiliang; Yin, Dawei (2019). "Graph Neural Networks for Social Recommendation". The World Wide Web Conference on - WWW '19 (بEnglish). San Francisco, CA, USA: ACM Press: 417–426. DOI:10.1145/3308558.3313488. ISBN:978-1-4503-6674-8. Archived from the original on 2022-12-19.
  32. ^ Cappart، Quentin؛ Chételat، Didier؛ Khalil، Elias؛ Lodi، Andrea؛ Morris، Christopher؛ Veličković، Petar (23 سبتمبر 2022). "Combinatorial optimization and reasoning with graph neural networks". arXiv:2102.09544 [cs, math, stat]. مؤرشف من الأصل في 2022-10-20.
  33. ^ Mirhoseini, Azalia; Goldie, Anna; Yazgan, Mustafa; Jiang, Joe Wenjie; Songhori, Ebrahim; Wang, Shen; Lee, Young-Joon; Johnson, Eric; Pathak, Omkar (10 Jun 2021). "A graph placement methodology for fast chip design". Nature (بEnglish). 594 (7862): 207–212. DOI:10.1038/s41586-021-03544-w. ISSN:0028-0836. Archived from the original on 2022-10-20.


رابط خارجي

https://distill.pub/2021/gnn-intro/