What is a Neural Network – Ep. 2 (Deep Learning SIMPLIFIED)



إذا كنت تتجاهل الشبكات العصبية لأنك تعتقد بأنها صعبة الفهم أو تعتقد بأنك لا تحتاجهم… يا للهول هل لدي حل لك في هذا الفيديو ستتعلم عن الشبكات العصبية من دون أي رياضيات أو أكواد برمجية مقدمة عن ماهي و كيف تعمل أملي هو أن تحصل على فكرة لما هي مهمة فلنبدأ أول شيء تحتاجه هو أن التعلم العميق يتمحور حول الشبكات العصبية البنية الخاصة بالشبكات العصبية مثل أي شبكة أخرى هناك شبكة مترابطة من العقد، والتي تسمى الخلايا العصبية، والحواف التي تربطهم معا. وتتمثل المهمة الرئيسية للشبكة العصبية في تلقي مجموعة من المدخلات، أداء الحسابات المعقدة تدريجيا، ومن ثم استخدام الإخراج إلى حل المشكلة. تستخدم الشبكات العصبية للكثير من التطبيقات المختلفة، ولكن في هذه السلسلة سوف نركز على التصنيف. إذا كنت تريد أن تتعلم عن الشبكات العصبية في مزيد من التفاصيل قليلا، بما في ذلك الرياضيات، بلدي اثنين من الموارد المفضلة هي كتاب مايكل نيلسن، وفئة أندرو نغ. قبل أن نتحدث أكثر عن الشبكات العصبية، أنا ستعمل تعطيك لمحة سريعة عن مشكلة التصنيف. التصنيف هو عملية تصنيف مجموعة من الكائنات، بينما تستخدم فقط بعض ميزات البيانات الأساسية التي تصفها. هناك الكثير من المصنفات المتاحة اليوم – مثل الانحدار اللوجستي، ودعم آلات ناقلات، بايس نايف، وبالطبع، الشبكات العصبية. اطلاق النار المصنف، أو تفعيل كما يطلق عليه عادة، وتنتج درجة. على سبيل المثال، لنفترض أنك بحاجة إلى التنبؤ بما إذا كان المريض مريضا أو صحي، وكل ما لديك هي الطول والوزن ودرجة حرارة الجسم. وسيتلقى المصنف هذه البيانات عن المريض، ويعالجها، ويخرج من درجة الثقة. درجة عالية يعني ثقة عالية بأن المريض مريض، ودرجة منخفضة تشير إلى أنها صحية. وتستخدم الشبكات العصبية لمهام التصنيف حيث يمكن أن ينخفض ​​الكائن إلى واحدة من فئتين مختلفتين على الأقل. وخلافا للشبكات الأخرى مثل شبكة اجتماعية، شبكة عصبية هي منظمة للغاية ويأتي في طبقات. الطبقة الأولى هي طبقة الإدخال، الطبقة النهائية هي طبقة الانتاج، ويشار إلى جميع الطبقات في ما بين الطبقات المخفية. ويمكن النظر إلى الشبكة العصبية نتيجة لغزل المصنفات معا في شبكة ويب الطبقات. وذلك لأن كل عقدة في طبقات مخفية والمخرجات لديها المصنف الخاصة بها. خذ تلك العقدة على سبيل المثال – فإنه يحصل على مدخلات من طبقة المدخلات، وينشط. ثم يتم تمرير النتيجة على أنها المدخلات إلى الطبقة المخفية التالية لمزيد من التنشيط. وبالتالي، دعونا نرى كيف يلعب هذا من نهاية إلى نهاية عبر الشبكة بالكامل. يتم تمرير مجموعة من المدخلات إلى الطبقة المخفية الأولى، يتم تمرير التنشيط من تلك الطبقة إلى الطبقة التالية وهلم جرا، حتى تصل إلى طبقة الإخراج، حيث يتم تحديد نتائج التصنيف بالدرجات في كل عقدة. يحدث هذا لكل مجموعة من المدخلات. تفضل واحد اخر… مثل ذلك. هذه السلسلة من الأحداث بدءا من المدخلات حيث يتم إرسال كل تفعيل إلى الطبقة التالية، ثم بعد ذلك، على طول الطريق إلى الإخراج، يعرف باسم الانتشار الأمامي، أو الدعامة الأمامية. الدعامة إلى الأمام هو طريقة الشبكة العصبية لتصنيف مجموعة من المدخلات. هل تريد معرفة المزيد عن الشبكات العصبية؟ يرجى التعليق واسمحوا لي أن أعرف أفكارك؟ ولدت أول شبكات العصبية من الحاجة لمعالجة عدم دقة من المصنف المبكر، بيرسيبترون. وقد تبين أنه باستخدام شبكة الطبقات من بيرسيبترونس، يمكن تحسين دقة التنبؤات. ونتيجة لذلك، تسمى هذه السلالة الجديدة من الشبكات العصبية متعدد الطبقات بيرسيبترون أو ملب. ومنذ ذلك الحين، فإن العقد داخل الشباك العصبية حلت محل بيرسيبترونس مع المصنفات أكثر قوة، ولكن اسم ملب عالقة. وهنا دعم الأمام مرة أخرى. كل عقدة لديها نفس المصنف، ولا أحد منهم النار عشوائيا. إذا قمت بتكرار إدخال، يمكنك الحصول على نفس الانتاج. لذلك إذا تلقت كل عقدة في طبقة خفية نفس المدخلات، لماذا لم يطلقوا جميعا نفس القيمة؟ والسبب هو أن كل مجموعة من المدخلات يتم تعديلها من خلال الأوزان والتحيزات الفريدة. على سبيل المثال، بالنسبة لتلك العقدة، المدخل الأول هو
تعديلها من قبل وزن 10، والثانية بنسبة 5، والثالثة من قبل 6 ثم يتم إضافة التحيز من 9 على القمة. كل حافة لديها وزن فريد من نوعه، وكل عقدة لديها التحيز فريدة من نوعها. وهذا يعني أن الجمع المستخدم لكل تفعيل هو أيضا فريدة من نوعها، مما يفسر لماذا العقد النار بشكل مختلف. قد تكون قد خمنت أن دقة التنبؤ للشبكة العصبية تعتمد على أوزانها وتحيزاتها. نحن نريد أن دقة لتكون عالية، وهذا يعني أننا نريد الشبكة العصبية للتنبؤ بقيمة التي هي أقرب إلى الناتج الفعلي ممكن، في كل مرة. عملية تحسين دقة الشبكة العصبية يسمى التدريب، تماما مثل غيرها من أساليب التعلم الآلي. وهنا أن دعم الأمام مرة أخرى – لتدريب الشبكة، يتم مقارنة الناتج من دعم الأمام إلى الإخراج الذي هو معروف أن يكون صحيحا، والتكلفة هي الفرق بينهما. ويتمثل الهدف من التدريب في جعل هذه التكلفة صغيرة قدر الإمكان، عبر الملايين من الأمثلة التدريبية. للقيام بذلك، صافي بتعديل الأوزان والتحيزات خطوة بخطوة حتى يتطابق التنبؤ بشكل وثيق مع الإخراج الصحيح. وبمجرد تدريبها جيدا، الشبكة العصبية لديها القدرة على جعل التنبؤات دقيقة في كل مرة. هذا هو شبكة العصبية باختصار. عند هذه النقطة قد تكون أتساءل. لماذا إنشاء وتدريب شبكة من المصنفات لمهمة مثل التصنيف، عندما يمكن لمصنف فردي القيام بهذه المهمة بشكل جيد؟ الجواب ينطوي على مشكلة تعقيد النمط، والتي سنرى في الفيديو التالي.

26 thoughts on “What is a Neural Network – Ep. 2 (Deep Learning SIMPLIFIED)”

  1. This just in – Andrew Ng's deeplearning.ai has released several Deep Learning courses on Coursera. Link: https://www.coursera.org/specializations/deep-learning. Enjoy!

  2. Wow this enlighten ing I didn't get it easy before now I started with Encog and JEFF HILTON then I dropped it when I didn't get it.

  3. The most simplified explanation I have ever found on net, textbook, videos or tutorials, very well organized, and each line of this video answers the questions I have been asking everyone, looking everyone, I blame myself for not finding your channel earlier. Thank you, keep up the good work, community needs you!

  4. Is bias = node? For a function y = mx + c, m -> weight, c -> bias, x -> multipler (node value). Can you kindly explain?

  5. Thanks for such good resources on Deep Learning. Just curious, do you make all these pretty pictures used in the video?

  6. Too much boring history and long annoying introductions to topics that are not discussed. Plus please get rid of that annoying music and intro they just waste time.

  7. And I wonder if the support comments were paid for or were friends or family of this remarkable poor presenter.

  8. Thanks for this awesome information! I would like to ask whether it is possible for a batch process (e.g. BFGS) not to use a learning rate. I am using a software which uses the BFGS algorithm for weight adjustment and the author states that it does not use a learning rate. Could someone clarify this for me?

  9. my thoughts: this tea and honey are really nice together. you cant go wrong with tea and honey, but this particular honey from russia and this cinnamon tea from poland. man oh man…

Leave a Reply

Your email address will not be published. Required fields are marked *