U3F1ZWV6ZTMzODUxMjc3NDg0NzhfRnJlZTIxMzU2MzEyOTg0MDY=

مراحل تطور ونمو الذكاء الاصطناعي

 


تطور الذكاء الاصطناعي: من الخيال العلمي إلى ثورة العقل الرقمي


المقدمة: حلم العقل الاصطناعي عبر العصور


منذ فجر الحضارة الإنسانية، ظل الإنسان يبحث عن وسيلة لخلق كيان يشبهه في التفكير والإبداع. كانت الأساطير الإغريقية تحكي عن تمثال "جالاطيا" الذي منحته الآلهة الحياة، وفي التراث اليهودي كان "الغولم" كائنًا من الطين تفعله التعاويذ. هذه الأحلام القديمة كانت بمثابة البذور الأولى لفكرة الذكاء الاصطناعي. لكن الأمر لم يتحول إلى علم حقيقي إلا في منتصف القرن العشرين، حين بدأ العقل البشري يحلم لأول مرة بصناعة عقل آخر لا من لحم ودم، بل من أسلاك وكود ورقم وأسس رياضية.


في هذا الموضوع الطويل والشامل، سنغوص في رحلة تطور الذكاء الاصطناعي، من بداياته الخجولة في غرف الجامعات الباردة إلى عمالقة التكنولوجيا اليوم التي تتحدث وتتنافس وكأنها كائنات مفكرة.


---


الفصل الأول: البذور الأولى (1950-1956) - ولادة الحلم


آلان تورينج واختبار العقل


قبل أن يصبح الذكاء الاصطناعي مصطلحًا متداولاً، كان هناك عالم رياضيات إنجليزي عبقري يدعى آلان تورينج. في عام 1950، نشر ورقة بحثية ثورية بعنوان "آلات الحوسبة والذكاء"، طرح فيها سؤالاً بقي محور النقاش لعقود: "هل يمكن للآلات أن تفكر؟"


بدلاً من الانشغال بتعريف "التفكير" الذي كان مستعصيًا، ابتكر تورينج اختبارًا عمليًا شهيرًا عُرف باسم "اختبار تورينج". يقوم الاختبار على فكرة بسيطة وعبقرية في آن واحد: إذا كان بإنسان أن يجري محادثة نصية مع جهاز كمبيوتر وشخص آخر دون أن يميز أيهما الإنسان وأيهما الآلة، فإن الآلة تكون نجحت في اجتياز اختبار الذكاء.


هذا الاختبار لم يكن مجرد لعبة فكرية؛ بل أعاد تعريف معنى الذكاء نفسه. لم يكن تورينج مهتمًا بما إذا كانت الآلة تشعر أو تمتلك وعيًا، بل كان يركز على السلوك الخارجي: هل يمكنها محاكاة المحادثة البشرية بقدر مقنع؟


أولى الخطوات العملية


في عام 1951، تمكن كريستوفر ستراتشي من تصميم برنامج للعبة الداما (Checkers) على جهاز "فيرانت مارك 1" في مانشستر. كان هذا البرنامج بدائيًا جدًا بالمقارنة مع ما نراه اليوم، لكنه كان قادرًا على لعب اللعبة بأكملها. كان هذا أول مثال حقيقي لبرنامج يظهر ما يمكن وصفه بـ"السلوك الذكي" في لعبة تتطلب استراتيجية وتخطيطًا.


---


الفصل الثاني: مؤتمر دارتموث (1956) - لحظة الميلاد الرسمي


الصيف الذي غير العالم


في صيف عام 1956، اجتمع نخبة من ألمع العقول في مجال الرياضيات وعلوم الحاسوب في حرم كلية دارتموث بولاية نيوهامبشير الأمريكية. كان بينهم "جون مكارثي" و"مارفن مينسكي" و"ناثانيال روتشستر" و"كلود شانون". استمر المؤتمر ثمانية أسابيع، وخرج العالم بمصطلح جديد سيغير مسار التاريخ: الذكاء الاصطناعي.


جون مكارثي، العالم الشاب الطموح، هو من صاغ هذا المصطلح لأول مرة. أراد أن يميز هذا المجال الجديد عن "السيبرنيطيقا" التي كان يروج لها نوربرت فينر. اقترح مكارثي أن كل جانب من جوانب التعلم أو أي سمة من سمات الذكاء يمكن وصفها بدقة بحيث يمكن صنع آلة تحاكيها.


طموحات لا حدود لها


في بداياته، كان المتفائلون يعتقدون أن صناعة آلة ذكية مجرد مسألة سنوات قليلة. هربرت سايمون، أحد رواد المجال، صرح في نهاية الخمسينيات قائلاً: "خلال عشرين عامًا، ستكون الآلة قادرة على القيام بأي عمل يستطيع الإنسان القيام به". وكارل ساجان تنبأ بوجود كيانات ذكية اصطناعية بحلول الثمانينيات.


لم تكن هذه التفاؤلات مبالغًا فيها بقدر ما كانت تعكس حماس البدايات. كانوا يعتقدون أن العقل البشري عبارة عن مجموعة من القواعد المنطقية التي يمكن تفكيكها وبرمجتها في آلة.


---


الفصل الثالث: المد الذهبي الأول (1956-1974) - أيام التفاؤل والمشاريع المبكرة


برامج حل المشكلات والمنطق الرمزي


تمحورت أبحاث الذكاء الاصطناعي المبكرة حول ما يُسمى بنهج "المنطق الرمزي". فكرة هذا النهج أن العالم يمكن تمثيله في شكل رموز (رموز تمثل أشياء، مفاهيم، علاقات) ثم تطبيق قواعد منطقية على هذه الرموز للوصول إلى استنتاجات جديدة.


أشهر مثال على ذلك هو برنامج "المرن المنطقي النظري" (Logic Theorist) الذي طوره آلان نيويل وهربرت سايمون وكليف شو عام 1955. استطاع هذا البرنامج إثبات 38 من أصل 52 نظرية في كتاب "مبادئ الرياضيات" لبيرتراند راسل وألفريد نورث وايتهيد، بل ووجد إثباتًا لنظرية واحدة كان أكثر أناقة من الإثبات الأصلي.


إيليزا – أول محادث في التاريخ


عام 1966، طور جوزيف فايزنباوم في معهد ماساتشوستس للتكنولوجيا برنامجًا أطلق عليه اسم "إيليزا"، وكان أول برنامج محادثة في التاريخ. صُمم إيليزا لمحاكاة طبيب نفسي روجري، أي يقوم بطرح أسئلة عامة ومفتوحة مثل "لماذا تشعر بهذا؟" أو "كيف يؤثر هذا فيك؟".


كان إيليزا بسيطًا جدًا في جوهره، حيث كان يعتمد على التعرف على كلمات معينة وتحويلها إلى أسئلة. لكن المفاجأة كانت أن العديد من الأشخاص الذين تحدثوا معه أصبحوا مقتنعين بأنه يفهمهم حقًا، حتى أن سكرتيرة فايزنباوم طلبت منه أحيانًا ترك الغرفة أثناء حديثها مع البرنامج لتمنحها "خصوصية".


شيكرز وبرامج الألعاب الأخرى


في أوائل الستينيات، طوّر آرثر صموئيل برنامجًا للعبة الداما (شيكرز) كان أول برنامج يتعلم من تلقاء نفسه. لم يعطه صموئيل كل القواعد والاستراتيجيات، بل علمه كيفية تحسين أدائه كلما لعب أكثر. هذا كان مثالاً مبكرًا للتعلم الآلي، وإن كان بدائيًا جدًا بالمعايير الحديثة.


---


الفصل الرابع: شتاء الذكاء الاصطناعي الأول (1974-1980) - سقوط الأحلام الكبيرة


وعود زائفة وإحباط حقيقي


بحلول منتصف السبعينيات، بدأ الحماس الأولي بالتلاشي. لم تتحقق الوعود الكبيرة التي قُطعت في الخمسينيات والستينيات. لم تصبح الآلات ذكية مثل البشر، ولم تحل مشاكل العالم. بدأت وكالات التمويل، وخاصة في بريطانيا والولايات المتحدة، تسحب دعمها المالي.


كان أحد أهم أسباب هذا "الشتاء" هو التقرير الخطير الذي أصدره السير جيمس لايهيل في عام 1973 بناءً على طلب الحكومة البريطانية. خلص التقرير إلى أن أبحاث الذكاء الاصطناعي فشلت تمامًا في تحقيق أهدافها الطموحة، وأن المجال لا يستحق دعمًا ماليًا كبيرًا. كانت هذه ضربة قاصمة للمجتمع الأكاديمي البريطاني.


قيود الأجهزة والبرامج


لم تكن المشكلة مجرد نقص في الرؤية، بل كانت المشكلة أساسًا في قيود الأجهزة. حواسيب السبعينيات كانت بطيئة جدًا (بالمقارنة مع ما لدينا اليوم) ولديها ذاكرة محدودة للغاية. الكمبيوتر الذي كان يملأ غرفة كاملة كان يمتلك قدرة معالجة أقل من الآلة الحاسبة الحديثة.


بالإضافة إلى ذلك، كان منهج المنطق الرمزي نفسه يواجه مشكلة أساسية: استثناءات العالم الحقيقي. تصور أن تكتب آلاف القواعد المنطقية لشرح كيفية عمل العالم، ثم تجد أن كل قاعدة لها استثناءات، وأن التعامل مع هذه الاستثناءات يتطلب مزيدًا من القواعد، وهكذا إلى ما لا نهاية.


بؤر ضوء خافتة في الظلام


ورغم ذلك الشتاء القارس، استمر بعض الباحثين في العمل. طور "تيري وينوجر" برنامج "SHRDLU" الذي كان قادرًا على التعامل مع مكعبات افتراضية في عالم بسيط جدًا. كان البرنامج يفهم أوامر مثل "ضع المكعب الأحمر فوق المكعب الأخضر" وكان يجيب عن أسئلة مثل "ما لون المكعب الذي يلمسه المكعب الأزرق؟". كانت هذه قفزة نوعية في فهم اللغة الطبيعية، لكنها بقيت حبيسة عالم صغير جدًا لا يتجاوز بضع مكعبات.


---


الفصل الخامس: الأنظمة الخبيرة (1980-1987) - العودة إلى دائرة الضوء


تحول نموذجي في الفلسفة


بعد سنوات من الكساد، تغيرت استراتيجية الباحثين. بدلاً من محاولة صنع ذكاء عام شبيه بالبشر، تحول التركيز إلى "الأنظمة الخبيرة": برامج تحوي خبرة إنسان خبير في مجال محدد جدًا، وتستخدم هذه الخبرة لحل مشاكل مماثلة.


الفكرة كانت بسيطة وعملية: بدلاً من تعليم الآلة كيف تفكر بشكل عام، كيف نعلمها كل ما يعرفه أفضل خبير في مجال معين؟ لنأخذ مجال الطب مثلاً: ما الذي يجعلك طبيبًا ماهرًا؟ هو معرفتك بأعراض الأمراض، وكيف تتفاعل الأدوية، والخبرة التي تراكمت لديك من آلاف الحالات. النظام الخبير يحاول تخزين هذه المعرفة في قواعد بيانات على شكل "إذا... فإن...".


نجاحات باهرة


كان نجاح نظام "MYCIN" في جامعة ستانفورد نقطة تحول مهمة. صُمم MYCIN لتشخيص الأمراض البكتيرية واقتراح المضادات الحيوية المناسبة. عندما تم اختباره، تفوق أداؤه على أداء الأطباء المتخصصين في بعض الحالات. في عام 1979، نشرت دراسة أظهرت أن MYCIN كان يصنف البكتيريا بدقة 90% ويوصي بعلاج مناسب في 80% من الحالات.


نظام آخر شهير كان "XCON" الذي طورته شركة DEC (الشركة الرقمية للحواسيب). طلبت DEC مساعدة في مشكلة: كانت أنظمتها الحاسوبية معقدة جدًا لدرجة أن موظفي المبيعات كانوا يرتكبون أخطاء في ترتيب المكونات، مما أدى إلى إرسال أجزاء خاطئة أو ناقصة للعملاء. صُمم XCON ليقرأ طلب العميل ويحدد المكونات اللازمة تلقائيًا. وفر هذا النظام للشركة أكثر من 40 مليون دولار سنويًا في أوائل الثمانينيات.


الثورة التجارية والتبني الواسع


سرعان ما أدركت الشركات الكبرى قيمة الأنظمة الخبيرة. شركات مثل "إنتلي كورب" و"تك نوليدج وير" ظهرت لتقديم أدوات ومنصات لبناء هذه الأنظمة. استثمرت اليابان بكثافة في مشروع "أجيال الحواسيب الخامسة" الذي كان يهدف إلى بناء حواسيب ذكية تعتمد على الأنظمة الخبيرة.


حتى أن شركات النفط الكبرى مثل شل وشيفرون بدأت تستخدم أنظمة خبيرة لتشخيص أعطال معدات الحفر، وشركات الطيران لجدولة الرحلات، والبنوك لتقييم مخاطر الائتمان.


---


الفصل السادس: الشتاء الثاني (1987-1993) - انهيار القلاع الاقتصادية


لماذا انهارت الأنظمة الخبيرة؟


للوهلة الأولى، بدت الأنظمة الخبيرة نجاحًا ساحقًا. لكنها كانت تحمل في طياتها بذور انهيارها. أولاً، كانت هذه الأنظمة هشة جدًا. إذا واجه النظام حالة لم تكن في قاعدة معرفته، كان عاجزًا تمامًا.


ثانيًا، صيانة هذه الأنظمة كانت مستحيلة تقريبًا. تخيل أن قاعدة المعرفة تصبح أكبر وأكبر مع الوقت، مليئة بالقواعد المتضاربة والاستثناءات. تحديث قاعدة معرفة تضم عشرات الآلاف من قواعد "إذا... فإن..." كان كابوسًا لأي مطور.


ثالثًا، انفجرت أسعار الأجهزة والبرامج المتخصصة التي تعمل عليها هذه الأنظمة. عندما ظهرت حواسيب الجيل الجديد (مثل Apple Macintosh وحواسيب IBM الشخصية الأقوى)، كانت هذه الأجهزة أسرع وأرخص بكثير من محطات العمل المتخصصة المطلوبة لتشغيل الأنظمة الخبيرة التقليدية.


انسحاب الشركات والتمويل


بحلول عام 1987، بدأت شركات التكنولوجيا الكبرى، بما في ذلك "إنتلي كورب" الرائدة، تواجه صعوبات مالية. انهار سوق الأجهزة المخصصة للذكاء الاصطناعي، وتراجعت الاستثمارات. أغلقت العديد من الشركات الناشئة، وألغيت أقسام كاملة للبحث والتطوير في شركات كبرى مثل "تكساس إنسترومنتس".


كانت نهاية الثمانينيات فترة سوداء أخرى للذكاء الاصطناعي. تراجع الاهتمام الأكاديمي وتضاءل التمويل الحكومي. مرة أخرى، بدأ المتشككون يعلنون موت الذكاء الاصطناعي للأبد.


---


الفصل السابع: التحول الكبير (1990-2000) - صعود التعلم الآلي والإحصاء


من المنطق إلى الاحتمالات


ما أنقذ الذكاء الاصطناعي من الانهيار التام كان تحولًا جذريًا في الفلسفة. بدلاً من محاولة جعل الآلات "تفكر" باستخدام القواعد المنطقية (نهج يعرف بـ"الذكاء الاصطناعي الرمزي")، تحول الباحثون إلى الأساليب الإحصائية والاحتمالية.


الفكرة الجديدة كانت: بدلاً من محاولة نمذجة طريقة تفكير البشر، لماذا لا نكتفي ببناء نماذج رياضية تتعلم من البيانات؟ إذا أعطينا الكمبيوتر ملايين الأمثلة على البريد الإلكتروني العادي والبريد العشوائي، يمكنه تعلم الأنماط الإحصائية التي تميز الفئتين دون أن نفهم نحن بالضرورة تلك الأنماط.


آلات المتجهات الداعمة والخوارزميات الجديدة


تقدمت خوارزميات التعلم الآلي بسرعة في التسعينيات. ظهرت "آلات المتجهات الداعمة" (SVM) كأداة قوية للتصنيف، واستخدمت في التعرف على خط اليد والتعرف على الوجوه. تحسنت الشبكات العصبية أيضًا بعد تحدياتها السابقة في الثمانينيات، وذلك بفضل خوارزميات جديدة مثل "الانتشار الخلفي" (Backpropagation) الذي جعل تدريب الشبكات متعددة الطبقات ممكنًا عمليًا.


كان أحد الإنجازات الكبرى في التسعينيات هو فوز برنامج "TD-Gammon" لتطوير لعبة الطاولة (Backgammon)، الذي طوّره جيرالد تيسورو في مختبرات آي بي إم. تعلم البرنامج اللعب من خلال ممارسة ملايين المباريات ضد نفسه (تعلم معزز)، ووصل إلى مستوى يفوق مستوى أفضل لاعبي العالم.


الأسبير والتطبيقات العملية


بحلول منتصف التسعينيات، بدأ الذكاء الاصطناعي يدخل الحياة اليومية من أوسع أبوابه، وإن كان الناس لا يدركون ذلك غالبًا. أول تطبيق واسع الانتشار كان "التعرف الضوئي على الحروف" (OCR) الذي استخدمته مكاتب البريد لفرز الطرود والبريد. ثم دخلت تقنيات التعلم الآلي في برامج مكافحة البريد العشوائي، وفي برامج التعرف على خط اليد في "بالم بيلوت" وغيرها.


ما يميز هذه الفترة هو الانتقال من البحث الأكاديمي إلى التطبيق التجاري الواقعي. أصبح الذكاء الاصطناعي أداة، وليس هدفًا فلسفيًا.


---


الفصل الثامن: عصر البيانات الضخمة والانفجار (2000-2010) - المكون السري الذي غير كل شيء


الإنترنت والبيانات – الوقود الجديد للذكاء


إذا كنت ستعلم خوارزمية التعرف على الوجوه، فعدد الصور التي تحتاجها يتناسب مع تعقيد المشكلة. في الثمانينيات، كان لدى الباحثين بضع مئات أو آلاف الصور كحد أقصى. في الألفينيات، انفجرت كمية البيانات المتاحة. الإنترنت لم يعد مجرد شبكة معلومات، بل أصبح محيطًا هائلاً من البيانات: صور، نصوص، مقاطع فيديو، تفاعلات بشرية. وكل هذه البيانات أصبحت متاحة للتدريب بفضل محركات البحث ومشاريع مثل "ليبيل مي" التي سمحت للمستخدمين العاديين بتصنيف البيانات مجانًا.


كان غوغل في طليعة المستفيدين. جمع فريق "غوغل إكس" بقيادة جيف دين وأوراي أوريل مئات الملايين من الفيديوهات من موقع يوتيوب بعد شرائه. باستخدام هذه الكمية الهائلة من البيانات، استطاعوا تدريب شبكة عصبية عملاقة للتعرف على القطط. لم يعطها أحد أي معرفة مسبقة عن شكل القطط. كل ما فعلته هو مشاهدة ملايين الفيديوهات والصور، وبنفسها بدأت تتعرف على الأنماط - شكل الأذنين، شكل العينين، طول الذيل. كانت هذه لحظة تاريخية: أول مرة يتعلم فيها نموذج ذكاء اصطناعي مفهومًا مجردًا (مفهوم "قطة") دون أي تدخل بشري في تعريف ذلك المفهوم.


قوة المعالجة المتوازية (GPU)


بالتوازي مع انفجار البيانات، حدث تطور موازٍ ومهم في مجال الأجهزة. كانت بطاقات الرسوميات (GPU) التي صُممت بالأساس لتشغيل ألعاب الفيديو الثلاثية الأبعاد، تتمتع بهندسة معمارية مختلفة تمامًا عن المعالجات التقليدية (CPU). بينما كان الـ CPU يحتوي على بضعة أنوية قوية جدًا، كان الـ GPU يحتوي على آلاف الأنوية الصغيرة والبسيطة.


ولماذا هذا مفيد للذكاء الاصطناعي؟ لأن العمليات التي تجريها الشبكات العصبية - وهي في الأساس عمليات ضرب وجمع ضخمة للمصفوفات - يمكن تجزئتها وتنفيذها على هذه الآلاف من الأنوية بالتوازي. ما كان يستغرق أسابيع على وحدة معالجة مركزية بدأ يُنجز في أيام ثم ساعات. علماء الذكاء الاصطناعي تبنوا هذه التقنية بسرعة، وأصبحت تدريب الشبكات الكبيرة أمرًا ممكنًا.


كيف غير الذكاء الاصطناعي الإنترنت في ذلك العقد؟


بحلول نهاية العقد، أصبحت جميع خدمات الإنترنت الكبرى تعتمد على التعلم الآلي دون أن يعلن ذلك صراحة. أمازون كانت توصي بمنتجات ("العملاء الذين اشتروا هذا اشتروا أيضًا ذاك")، نيتفليكس كانت توصي بأفلام، وفيسبوك كانت تضع علامات على الوجوه في الصور تلقائيًا. كانت غوغل تستخدم الذكاء الاصطناعي لتحسين نتائج البحث، وكانت آبل تدمجه في خاصية Siri الأولى التي أطلقت عام 2011.


---


الفصل التاسع: الثورة العميقة (2010-2015) - التعلم العميق ينتصر


ImageNet واللحظة الفارقة


في عام 2010، أطلقت عالمة الحاسوب "في-في لي" مشروع "ImageNet" - قاعدة بيانات ضخمة تضم أكثر من 14 مليون صورة مصنفة يدويًا في 20 ألف فئة. ونظمت مسابقة سنوية (ILSVRC) لتقييم أفضل خوارزمية في تصنيف الصور.


سنوات 2010، 2011، 2012 مرت وكانت أفضل الخوارزميات تصل إلى دقة حوالي 74% - أي خطأ بنسبة 26%. ثم جاء عام 2012 ليكتب فصلاً جديدًا. فازت خوارزمية تسمى "AlexNet" من تصميم أليكس كريزيفسكي وإيليا سوتسكيفير مع导师 جيفري هينتون. كانت النتيجة مذهلة: AlexNet حققت خطأ بنسبة 16% فقط، أي تحسن بنسبة 50% تقريبًا عن أفضل النتائج السابقة.


ما كان سر AlexNet؟ كان أول تطبيق ناجح للتعلم العميق (Deep Learning) على نطاق واسع باستخدام GPU. شبكتها العصبية كانت تحتوي على 5 طبقات للالتفاف (Convolutional layers) و 3 طبقات متصلة بالكامل (Fully connected)، بإجمالي 60 مليون معامل. هذا العدد الضخم من المعاملات، المدرب على كمية هائلة من البيانات، واحدث هذه القفزة النوعية.


الانعطافة الحاسمة


بعد عام 2012، تغير كل شيء بين عشية وضحاها. لم يعد هناك أي نقاش حول أفضل نهج لمعالجة الصور. التعلم العميق فاز بجدارة وأصبح المعيار الذهبي. بدأت جميع شركات التكنولوجيا الكبرى - غوغل، فيسبوك، مايكروسوفت، آي بي إم، بايدو - بإنشاء أقسام التعلم العميق الخاصة بها.


غوغل ذهبت إلى أبعد من ذلك. في عام 2014، اشترت شركة ناشئة بريطانية صغيرة جدًا تسمى "ديب مايند" مقابل 400 مليون دولار. كثيرون تساءلوا بحيرة: من هذه الشركة الصغيرة وما قيمتها؟ قبل أن نعرف الإجابة، كان علينا انتظار عام 2016.


التعرف على الكلام وفهم اللغة الطبيعية


بالتوازي مع نجاحات رؤية الكمبيوتر، حقق الذكاء الاصطناعي إنجازات مماثلة في التعرف على الكلام. بين عامي 2012 و 2015، انخفض معدل خطأ أنظمة التعرف على الكلام من حوالي 25% إلى أقل من 8%. فجأة، أصبحت خاصية "Google Now" و"Siri" و"Cortana" و"Alexa" (أمازون أصدرت Alexa عام 2014) مفيدة بالفعل، وإن كان لا يزال أمامها طريق طويل.


أيضًا، تقدمت الترجمة الآلية بشكل هائل. في نوفمبر 2016، أعلنت غوغل عن "ترجمة غوغل العصبية" التي تستخدم التعلم العميق لترجمة الجمل كاملة، وليس كلمة كلمة. قفزت جودة الترجمة بشكل كبير، خاصة بين اللغات المتقاربة.


---


الفصل العاشر: الإنجازات الأسطورية (2016-2018) - عندما هزم الذكاء البشر


AlphaGo: اللحظة التي توقف فيها العالم


في مارس 2016، عقدت غوغل مؤتمرًا صحفيًا غير مسبوق. لاعبو لعبة "غو" - اللعبة الصينية المعقدة التي يعتقد أنها أقدم لعبة استراتيجية في التاريخ - تحدوا أقوى برامج الذكاء الاصطناعي لعقود وخسروها جميعًا. اللعبة التي تحتوي على عدد من الاحتمالات أكبر من عدد الذرات في الكون المرئي، والتي يعتقد أن إتقانها يتطلب حدسًا بشريًا عميقًا وإبداعًا حقيقيًا، بدت كحصن أخير للعقل البشري أمام الآلات. ثم جاء AlphaGo.


واجه AlphaGo بطل العالم "لي سيدول" - أسطورة اللعبة وفاز عليها بـ 4 مباريات مقابل 1. خلال المباراة الأولى، عندما قام AlphaGo بنقلة غريبة جدًا (نقلة 37 في المباراة الثانية) أذهل الجميع. خبراء اللعبة قالوا أنها "خطأ"، ثم اكتشفوا أنها "عبقرية"، كانت خطوة لا يخطر ببال أي إنسان. شاهد العالم كله هذه المباراة. أكثر من 200 مليون شخص تابعوا البث المباشر 

تعليقات
ليست هناك تعليقات
إرسال تعليق

إرسال تعليق

اكتب تعليق لو عندك اي استفسار او سؤال

الاسمبريد إلكترونيرسالة