التعلم العميق ومستقبل البحث والتسويق

بينما يناقش سوق مُحسّنات محرّكات البحث ما إذا كان سيتم التراجع عن خوارزميات بدون ارتباط في ياندكس أم لا ، دعنا نتحدث عن شيء مثل التعلم العميق (ومن ثم لا نقول أنك لم تسمع).

لماذا تحتاج إلى معرفة ذلك؟ لأن التعلم العميق هو ثورة في التعلم الآلي تحدث أمام أعيننا. وفي المستقبل القريب ، سوف يتغير التعلم العميق بشكل يفوق الاعتراف بكل من البحث نفسه ، والترتيب في العرض الطبيعي ، وعالمنا ككل (ليس كثيرًا ، ولا يكفي).

إذن ما هو التعلم العميق؟ باللغة الروسية ، لم تتم تسوية هذا المصطلح بعد ، وترجمته بطرق مختلفة. أنا أفضل ترجمة "التعلم العميق" (بدلاً من "العميق") ، والتي اقترحها ديمتري فيتروف ، أحد المتخصصين الروس ، باعتبارها الترجمة الرئيسية.

"التعلم العميق" هو ​​نوع من التعلم الآلي يعتمد على الشبكات العصبية. اليوم ، يعتمد استخدام "التعلم العميق" على أنظمة التعرف على الكلام ، والتعرف على الأشياء المرئية (الثابتة والمتحركة على حد سواء) ، وأخيرا ، تفاعل أنظمة الكمبيوتر مع اللغة الطبيعية وعزل المعاني.

يبدو أن كل شيء بسيط ، كل شيء واضح ، ويبدو أنه لا يهمنا. لكن ... ولكن في الواقع ، نحن نتحدث عن ثورة حقيقية في التعلم الآلي. لم تبدأ بالأمس ، فقد كانت المبادئ العامة "للتعلم العميق" موجودة منذ فترة طويلة. لكن التجسيد الفعلي للتعلم العميق أصبح ممكنًا في بداية هذا العقد ، عندما كان إنشاء الشبكات العصبية الحاسوبية أرخص بكثير. وبدءًا من عام 2012 تقريبًا ، حدثت طفرة حقيقية مرتبطة بتقنيات "التعلم العميق" في التعلم الآلي. ومع ذلك ، لا يزال هناك عدد قليل جدًا من المتخصصين في "التعلم المتعمق" في العالم ، والحاجة عالية للغاية لهم. على سبيل المثال ، تم إنشاء خوارزمية الاعتراف بالمعنى في النصوص بواسطة شخص واحد عمليًا - توماس ميكولوف. في ذلك الوقت ، كان يعمل في Google ، ولكن بعد ذلك على الفور تقريبًا ، تم "ربطه" بواسطة Facebook.

أعلاه ، لقد قلت بالفعل أن "التعلم العميق" هو ​​نوع من التعلم الآلي. ولكن هذا ليس صحيحا تماما ، في الواقع. التعلم الآلي الكلاسيكي هو استخراج المعرفة الجديدة من مجموعة كبيرة من البيانات التي يقوم الشخص بتحميلها في الجهاز. يصوغ الشخص قواعد التعلم الآلي (بسبب ما يسمى "مجموعة التدريب") ، وقاعدة أخطاء الآلة (يلغي تأثير ما يسمى "إعادة التدريب"). لكن تعلم الآلة الكلاسيكية له عيوب كبيرة - حيث يتم إعطاء البيانات للمعالجة وأمثلة من الحلول من قبل البشر. بمعنى آخر ، في تعلم الآلة الكلاسيكية ، يقوم الكمبيوتر بعدد كبير من المهام ، لكنه لا يشكل هذه المهام بشكل مستقل. يشير مفهوم "التعلم العميق" إلى أن الجهاز نفسه يخلق وظيفية لنفسه ، قدر الإمكان في الوقت الحالي.

يتضمن مفهوم "العمق" المطبق على التعلم الآلي نمذجة التجريدات متعددة المستويات ("الطبقات") وترجمتها إلى بيانات. كلما زادت هذه "الطبقات" ("الأعماق") ، زادت المهام الفكرية التي يمكن أن تؤديها الشبكة العصبية. في نفس الوقت تقوم بها دون مساعدة من شخص.

في الواقع ، "التعلم العميق" هو ​​الخطوة الأولى والكبيرة نحو الذكاء الاصطناعي. الشبكات العصبية هي أنظمة يمكنها ، رغم أنها لا تزال بدائية للتفكير, أي إنشاء اكتشافات جديدة من البيانات التي أنشأوها لأنفسهم. آلية التجريد متعدد المستويات ("الطبقات") ، المستخدمة في التدريب المتعمق ، تشبه إلى حد كبير آلية تعلم شاب من البشر. عندما يتعلم الطفل الأصوات ، ثم الكلمات الفردية ، وعندها فقط الجمل - تنتقل الشبكة العصبية "العميقة" من التجريدات البسيطة (السطحية) إلى التجريدات الأكثر تعقيدًا.

ثورة التعلم العميق

خلال عامي 2012 و 2013 ، تشتري Google بهدوء ولكن بشكل منهجي الشركات النشطة والشركات الناشئة في مجال التعلم العميق. من بينها كلا من الشركات الكبيرة إلى حد ما (على سبيل المثال ، فإن تكلفة DeepMind البريطانية وفقًا للخبراء في وقت الشراء من قبل شركة البحث العملاقة تراوحت بين 400 و 500 مليون دولار أمريكي) ، وقزم كبير جدًا - على سبيل المثال ، DNNresearch ، حيث عملت Google في وقت الشراء ثلاثة موظفين فقط - جيفري هينتون وطلابا الدراسات العليا.

بدأ هينتون ، الأستاذ بجامعة تورنتو ، أبحاثه في مجال بناء الشبكات العصبية في الثمانينيات من القرن الماضي ، وهو في الواقع اليوم أكثر المتخصصين الموثوقين في العالم في مجال التعلم العميق. على أساس العمل العلمي لهينتون أن العديد من الأنظمة القائمة على "التعلم العميق" كانت قائمة. في عام 2011 ، تنشئ Google أول شبكة عصبية لها ، تسمى Google Brain (تم تطويرها بالفعل كقسم عبادة في Google X) ، وتشارك Hinton في البداية في تطوير الشبكة العصبية كمستشار مستأجر ، وبعد ذلك بعامين تنضم إلى الفريق مع طلاب الدراسات العليا. جوجل الدماغ (دون ترك التدريس الخاص بك في جامعة تورونتو).

بدأت شبكة Google Brain العصبية (في عام 2012 ، التي تتكون من 16 ألف معالج) في التعلم. على طول الطريق ، حل المشكلات المطبقة - على سبيل المثال ، على وجه التحديد بسبب الشبكة العصبية ، انخفض عدد أخطاء التعرف على الأوامر الصوتية في البحث بنسبة 25 ٪ - تكتشف مخلوقًا مثل القط.

فقط بدراسة ملايين الصور على قناة يوتيوب ، فتحت الشبكة العصبية الاصطناعية القط. في الواقع ، فإن حل هذه المشكلة أمر معقد للغاية ، لأنه من الصعب إضفاء الطابع الرسمي عليه. يمكنك إنشاء خوارزمية تتعرف على القطط في أنواع معينة من الصور (بزاوية مماثلة ، بأحجام مماثلة من الكائنات). يمكنك إنشاء خوارزمية ترسم هذه القطط. لكن كيف تصنع خوارزمية تتعرف على القطط من أي زاوية ، إذا لم يفهم الخوارزمية ما هي القطة؟

يجب أن تكون الشبكة العصبية قد بدأت في فهم هذا. وعلمت هذا. تدربت على نفسها ، لم يقم الشخص بتعيين مثل هذه المهمة لها.

من الواضح أن كل شيء في الوقت الحالي ليس وردياً. تميز الشبكة العصبية القطط في الصور فقط في 15٪ من الحالات. يمكن أن تكون الدقة أعلى بكثير إذا كانت الشبكة ستدرس نفس النوع من المواد. وهذا هو ، في الواقع ، دقة التعرف على القطط من قبل الشبكة العصبية هو حاليا أسوأ بكثير من الاعتراف القطط من قبل الأطفال الذين تتراوح أعمارهم بين 4-5. ولكن ، على عكس الطفل ، لم يدرس أي شخص الشبكة العصبية ، ولم يعرض أحد الأشياء على قطة ، ودعاها. أنجبت الشبكة مفهوم القط نفسه.

ماذا يحدث بعد ذلك

في مارس 2015 ، انفجرت "قنبلة نووية" في عالم تحسين محركات البحث - نشرت Google مقالًا بعنوان "الثقة القائمة على المعرفة: تقييم موثوقية موارد الويب". مما لا شك فيه ، أنا أبالغ ، الأخبار ، في الواقع ، مرت دون أن يلاحظها أحد. حسنًا ، لبضعة أيام ، كان المديرون الاجتماعيون يشعرون بالحرج والشك - أعتذر عن هذه الكلمة الغبية ، لكنني لا أعرف كيف يمكنني التعرف على أي نشاط آخر على المنتديات الاجتماعية ومجموعات التواصل الاجتماعي. لم يكن هناك حد للسخط ("جوجل يضعنا على التجارب مرة أخرى") والشك ("لن يأتي شيء منها ، مثل ياشا مع إلغاء مرجع"). من المفهوم ، في مقال علمي بحت ، أعلن ممثلو Google عن خوارزمية تصنيف جديدة ، لا تستند إلى المرجع المرجعي للوثيقة ، ولكن إلى الدقة الواقعية. إذا تم تبسيطه ، فيمكن التعبير عن جوهر الخوارزمية الجديدة بواسطة الحد الأقصى التالي: يجب أن تكون الوثيقة ذات الفسيولوجيا الموثوقة ، والأشياء الأخرى متساوية ، في مرتبة أعلى من وثيقة ذات فلسفة غير دقيقة.

شكوك كبار المسئولين الاقتصاديين أمر مفهوم بشكل عام - فهم (كما هو الحال دائمًا ، بالمناسبة) لم يروا سوى ما أرادوا رؤيته. والسؤال الرئيسي الذي طُرِح على المنتديات بدا كالتالي: "هذا هو ما تريده كل الجحيم ، اتضح الآن - علينا الآن إنشاء محتوى يستشهد بالحقائق من ويكيبيديا أو من مصادر موثوقة أخرى ، حتى لو لم تكن ذات صلة بالموضوع على الصفحة ؟ ".

ولكن الحقيقة هي أن الخوارزمية الجديدة لا يمكن أن تعمل دون فهم المعنى المذكور في الصفحة. إن فهم معاني النص المكتوب / المسموع على الصفحة ، بدلاً من التعرف على الدلالات ، هو ما سيجعل البحث غير معروف.

كيف سيعمل "التعلم العميق" في البحث؟ أنتقل إلى تجربة الأشخاص الذين يفهمون هذا أفضل بكثير مني. هذا ما يقوله راند فيشكين في الإصدار القادم من Whiteboard Friday (بالمناسبة ، تسمى هذه المشكلة "ماذا يعني التعلم المتعمق والتعلم الآلي بالنسبة لكبار المسئولين الاقتصاديين في المستقبل؟"):

"تتكون الشبكة العصبية من طبقات مختلفة. ستكشف الطبقة الأولى عن جميع الميزات المختلفة للوثيقة. ستقوم الطبقة الأخرى من الشبكة العصبية بتصنيف أنواع هذه الميزات. وبالتالي ، ستأخذ Google في الاعتبار جميع الميزات الممكنة لأي نوع من المواقع وأي نوع من الصفحات من أجل تحديد أي إشارات مفيدة بشكل عام ، يمكن استخراجها هنا والآن؟ في هذه الحالة ، ستأخذ الشبكة العصبية في الاعتبار البيانات المتراكمة حول سلوك المستخدم في جميع صفحات الإنترنت (حيث يمكن أن تصل) من أجل التنبؤ النتائج - ما إذا كان المستخدم سيحب هذا أو ذاك المستند في المشكلة أم لا.

لكن الفكرة الأساسية هي أنه في المستقبل ، لن يتم التحكم في البيانات الواردة من قبل البشر. سيحاول الجهاز نفسه فهم محتوى الصفحة. نعم ، يبدو غريبا. ولكن قريبًا ، إذا سألت أحد مهندسي Google - على سبيل المثال ، هل يستحق الاستمرار في إنشاء روابط واردة إلى الموقع؟ - من المرجح أن يجيبك: لا أعرف. في الواقع ، لن يعرفوا بالضبط ما هي إشارات خوارزمية البحث البارزة لاستعلام معين ونوع معين من الصفحة. الجهاز وحده هو الذي يعرف هذا ، لكنه لن يكون قادرًا على شرح أي شيء لأي شخص ، لأن خوارزمية التصنيف ستتغير باستمرار مع ظهور مستندات جديدة حول هذا الموضوع ، وسيتم اشتقاق العديد من المقاييس التي ستستخدمها الشبكة العصبية من مشتقات عدد كبير من المقاييس الأخرى. "

"التعلم العميق" يأتي

ثورة التعلم العميق ، في الواقع ، هي مجرد بداية. ولكن اليوم الشبكات العصبية مع استخدام وظيفة "التعلم العميق".

على سبيل المثال ، تعمل خدمات مراقبة ازدحام المرور على تقنيات التعليم العميق. نعم ، لا تعرض Yandex.Proborks الصورة الحقيقية فحسب ، بل تحاول أيضًا التنبؤ بظهور الاختناقات المرورية ، ولكن بدون تعلم عميق يكون هذا التنبؤ مستحيلًا.

Google Voice Search و Apple Siri مدعومان بتقنيات "التعلم العميق".

تعمل خدمة التنبؤ بالإنفلونزا من Google على تقنيات التعليم العميق.

تعتمد خوارزميات التعرف للأشخاص في الصور والفيديو التي يتم تحميلها على Facebook يوميًا على تقنيات التعليم العميق.

للبحث. تعتمد خوارزميات تخصيص نتائج البحث على تقنيات التعليم العميق.

نحن ندخل في عالم جديد رائع. وستكون السنوات الخمس القادمة ثورية حقًا - ليس فقط بالنسبة لتسويق البحث ، ولكن أيضًا للبشرية ككل. قريبا جدا سوف نرى كل شيء بأعيننا.

شاهد الفيديو: فن اتخاذ القرارات- ملخص كتاب : حاسم - Decisive (كانون الثاني 2020).

Loading...

ترك تعليقك