هذه المقالة يتيمة. ساعد بإضافة وصلة إليها في مقالة متعلقة بها
يرجى مراجعة هذه المقالة وإزالة وسم المقالات غير المراجعة، ووسمها بوسوم الصيانة المناسبة.

تأثير إليزا

من أرابيكا، الموسوعة الحرة
اذهب إلى التنقل اذهب إلى البحث

تأثير إليزا، في مجال علم الحاسوب هو الافتراض لاوعي من البشر أن سلوكيات الكمبيوتر مماثلة للسلوك الإنساني؛ أي التجسيم.

ملخص

الشكل الأساسي لتأثير إليزا يشير إلى "استعداد الناس للتفاعل والفهم بشكل أكبر مما هو مبرمج عليه النظام فعلياً.[1] مثال بسيط على ذلك قدمه دوجلاس هوفستاتر، عن ألة الصرف آلي فهي تشكر الزبون في نهاية المعاملة. قد يظن الزبون أن الآلة تعبر بالفعل عن امتنانها؛ ومع أن الجهاز يقوم فقط بطباعة سلسلة من الرموز المبرمجة مسبقاً. [1]

بشكل عام، يصف تأثير إليزا أي موقف [2] [3] بناءً على مخرجات النظام فقط، حيث يرى المستخدمون أن أنظمة الكمبيوتر تمتلك "صفات وقدرات جوهرية" لا يمكن للبرنامج الذي يتحكم في (المخرجات) تحقيقها" أو "يفترضوا أن (المخرجات) تعكس سببية أكبر مما هو في الواقع".[4]

في كل أشكال تأثير إليزا الخاصة والعامة منها، يكون يحصل التأثير حتى عندما يكون للمستخدمين دراية مسبقة بطبيعة المخرجات المحددة التي سوف ينتجها النظام. من وجهة نظر نفسية، فإن تأثير إليزا هو نتيجة التنافر المعرفي الدقيق بين وعي المستخدم بحدود البرمجة وبين سلوكه تجاه مخرجات البرنامج.[5]

كان اكتشاف تأثير إليزا تطورًا مهمًا في الذكاء الاصطناعي، حيث أظهر مبدأ استخدام الهندسة الاجتماعية بدلاً من البرمجة الواضحة لاجتياز اختبار تورينج.[6]

أصل

تم تسمية التأثير على اسم روبوت الدردشة ELIZA في عام 1966، الذي طوره عالم الكمبيوتر في معهد ماساتشوستس للتكنولوجيا جوزيف وايزنباوم. عندما أعدسيناريو DOCTOR، فتم إعادة صياغة ردود المريض على شكل أسئلة:

الإنسان: حسنًا، لقد طلب مني صديقي أن آتي إلى هنا.
إليزا: صديقك طلب منك أن تأتي إلى هنا؟
الإنسان: يقول إنني مكتئب معظم الوقت.
إليزا: يؤسفني سماع أنك مكتئب.
الإنسان: هذا صحيح. أنا غير سعيد.
إليزا: هل تعتقد أن مجيئك إلى هنا سيساعدك على أن تصبح سعيدًا؟ [7]

على الرغم من أنه تم تصميمه بشكل بحت كآلية لدعم «المحادثة باللغة الطبيعية» مع جهاز الحاسوب، [8] لكن ردود الفعل العاطفية من المستخدمين كانت مدهشة خاصة مع نص DOCTOR، فأثناء تفاعلهم مع البرنامج، بدأوا في إظهار الفهم والدافع من وراء مخرجات البرنامج.[9] فعلق فايزنباوم لاحقاً، «لم أدرك.. أن التعرض القصير لبرنامج حاسوب بسيط نسبياً يمكن أن يحفز التفكير الوهمي بشكل قوي لدى الأشخاص العاديين تماماً.» [10] فعلياً، لم يتم تصميم كود إليزا بهدف الحصول على هذا التفاعل في المقام الأول، لكن عند الاستخدام، اكتشف الباحثون أن المستخدمين يفترضون وبدون وعي أن أسئلة إليزا تتضمن اهتماماً وانخراطاً عاطفي حقيقي في الموضوعات التي تمت مناقشتها أثناء المحادثة، حتى مع معرفتهم المسبقة أن إليزا لا تحاكي المشاعر.[11]

أهمية العمل الآلي

استطاعت إليزا إقناع بعض المستخدمين في أن الآلة كانت بشرية حقيقية. وكان لهذا التفاعل بين الإنسان والآلة دور في تقدم التقنيات التي تحاكي السلوك البشري. ميز وليام ميسل بين مجموعتين من روبوتات المحادثة بوصفهما "مساعدين شخصيين عامين" و "مساعدين رقميين متخصصين".[12] وتم دمج المساعدين الرقميين العامين في الأجهزة الشخصية، مع توفر ميزات مثل إرسال الرسائل وتدوين الملاحظات والتحقق من التقويمات وتحديد المواعيد. أما المساعدون الرقميون المتخصصون فهم مخصصون للعمل في مجالات محددة أو للمساعدة في إنجاز مهام محددة". [12] فبالتالي، تم زيادة الإنتاجية من خلال برمجة المساعدين الرقميين على سلوكيات مماثلة للبشر.

اعتبر جوزيف وايزنباوم أنه لا يمكن اختزال كل جزء من الفكر الإنساني إلى شكليات منطقية، أي أن هناك بعض العمليات الفكرية فقط يمارسها الإنسان".[13] كما لاحظ وايزنباوم أن المستخدمين يطورون علاقة عاطفية مع الآلات (الحاسوب والروبوتات..) إذا تفاعلوا معها كبشر. فعندما يتم تجسيم روبوتات المحادثة، فإننا نميل إلى تصور وجود ميزات جنسانية فيها، كطريقة تمكننا من إقامة علاقات مع التكنولوجيا. "يتم استخدام القوالب النمطية للجنسين لإدارة علاقتنا مع روبوتات المحادثة" عندما يتم برمجة السلوك البشري في هذه الأجهزة.[14]

كما أن العمل المؤنث أو عمل المرأة المؤتمت بواسطة مساعدين رقميين مجسمين يعزز من الصورة النمطية بأن المرأة تمتلك ميلاً طبيعياً للعمل الخدمي والعاطفي.[15] من خلال تحديد قربنا من المساعدين الرقميين عم طريق السمات البشرية المبرمجة عليها، تصبح روبوتات المحادثة من وجة نظر الإنسان كيانات جنسانية.

المراجع

  1. ^ أ ب Hofstadter, Douglas R. (1996). "Preface 4 The Ineradicable Eliza Effect and Its Dangers, Epilogue". Fluid Concepts and Creative Analogies: Computer Models of the Fundamental Mechanisms of Thought. Basic Books. ص. 157. ISBN:978-0-465-02475-9. مؤرشف من الأصل في 2016-06-10.
  2. ^ Fenton-Kerr، Tom (1999). "GAIA: An Experimental Pedagogical Agent for Exploring Multimodal Interaction". Computation for Metaphors, Analogy, and Agents. Lecture Notes in Computer Science. Springer. ج. 1562. ص. 156. DOI:10.1007/3-540-48834-0_9. ISBN:978-3-540-65959-4. Although Hofstadter is emphasizing the text mode here, the "Eliza effect" can be seen in almost all modes of human/computer interaction.
  3. ^ Ekbia، Hamid R. (2008). Artificial Dreams: The Quest for Non-Biological Intelligence. Cambridge University Press. ص. 8. ISBN:978-0-521-87867-8.
  4. ^ Rouse، William B.؛ Boff، Kenneth R. (2005). Organizational Simulation. Wiley-IEEE. ص. 308–309. ISBN:978-0-471-73943-2. مؤرشف من الأصل في 2021-10-19. This is a particular problem in digital environments where the "Eliza effect" as it is sometimes called causes interactors to assume that the system is more intelligent than it is, to assume that events reflect a greater causality than they actually do.
  5. ^ Ekbia، Hamid R. (2008). Artificial Dreams: The Quest for Non-Biological Intelligence. Cambridge University Press. ص. 156. ISBN:978-0-521-87867-8. But people want to believe that the program is "seeing" a football game at some plausible level of abstraction. The words that (the program) manipulates are so full of associations for readers that they CANNOT be stripped of all their imagery. Collins of course knew that his program didn't deal with anything resembling a two-dimensional world of smoothly moving dots (let alone simplified human bodies), and presumably he thought that his readers, too, would realize this. He couldn't have suspected, however, how powerful the Eliza effect is.
  6. ^ Trappl، Robert؛ Petta، Paolo؛ Payr، Sabine (2002). Emotions in Humans and Artifacts. Cambridge, Mass.: MIT Press. ص. 353. ISBN:978-0-262-20142-1. مؤرشف من الأصل في 2017-04-28. The "Eliza effect" — the tendency for people to treat programs that respond to them as if they had more intelligence than they really do (Weizenbaum 1966) is one of the most powerful tools available to the creators of virtual characters.
  7. ^ Güzeldere، Güven؛ Franchi, Stefano. "dialogues with colorful personalities of early ai". مؤرشف من الأصل في 2011-04-25. اطلع عليه بتاريخ 2007-07-30.
  8. ^ Weizenbaum، Joseph (يناير 1966). "ELIZA--A Computer Program For the Study of Natural Language Communication Between Man and Machine". معهد ماساتشوستس للتكنولوجيا. ج. 9: 36. DOI:10.1145/365153.365168. مؤرشف من الأصل في 2021-02-25. اطلع عليه بتاريخ 2008-06-17.
  9. ^ Suchman، Lucy A. (1987). Plans and Situated Actions: The problem of human-machine communication. Cambridge University Press. ص. 24. ISBN:978-0-521-33739-7. مؤرشف من الأصل في 2021-01-09. اطلع عليه بتاريخ 2008-06-17.
  10. ^ Weizenbaum، Joseph (1976). Computer power and human reason: from judgment to calculation. W. H. Freeman. ص. 7. مؤرشف من الأصل في 2021-03-07.
  11. ^ Billings، Lee (16 يوليو 2007). "Rise of Roboethics". Seed. مؤرشف من الأصل في 2009-02-28. (Joseph) Weizenbaum had unexpectedly discovered that, even if fully aware that they are talking to a simple computer program, people will nonetheless treat it as if it were a real, thinking being that cared about their problems – a phenomenon now known as the 'Eliza Effect'.
  12. ^ أ ب Dale, Robert (Sep 2016). "The return of the chatbots". Natural Language Engineering (بEnglish). 22 (5): 811–817. DOI:10.1017/S1351324916000243. ISSN:1351-3249. Archived from the original on 2020-07-30.
  13. ^ Weizenbaum، Joseph (1976). Computer power and human reason : from judgment to calculation. San Francisco, Cal. ISBN:0-7167-0464-1. OCLC:1527521. مؤرشف من الأصل في 2021-04-26.{{استشهاد بكتاب}}: صيانة الاستشهاد: مكان بدون ناشر (link)
  14. ^ Costa, Pedro. Ribas, Luisa. Conversations with ELIZA: on Gender and Artificial Intelligence. From (6th Conference on Computation, Communication, Aesthetics & X 2018) Accessed February 2021 نسخة محفوظة 2021-10-13 على موقع واي باك مشين.
  15. ^ Hester, Helen. 2016. “Technology Becomes Her.” New Vistas 3 (1):46-50.

قراءة معمقة

  • هوفستاتر، دوغلاس. مقدمة 4: تأثير إليزا الذي لا يمكن القضاء عليه ومخاطره. (من مفاهيم السوائل والتشابهات الإبداعية: نماذج الكمبيوتر للآليات الأساسية للفكر ، الكتب الأساسية: نيويورك، 1995)
  • Turkle، S. Eliza Effect: الميل لقبول استجابات الكمبيوتر باعتبارها أكثر ذكاء مما هي عليه بالفعل (من Life on the screen- Identity in the Age of the Internet ، Phoenix Paperback: London ، 1997)
  • تأثير ELIZA ، من ملف المصطلحات اللغوية، الإصدار 4.4.7. تم الوصول إليه في 8 أكتوبر 2006.