مدونتنا

Blog Thumbnail

نماذج اللغة الكبيرة LLM-نماذج خارقة لمعالجة اللغة الطبيعية|SHAI

تعد نماذج اللغة الكبيرة نماذج تعلم عميق تقوم على مبدأ المحولات Transformers, تستطيع فهم النصوص وتحليلها ومعالجتها كما يجب, من أهم الأمثلة عليها Chatgpt.

2/11/2025 - 7 دقائق

ما هي نماذج اللغة الكبيرة LLM: كيف تعمل وأشهر الأمثلة عليها

تندرج نماذج الذكاء الاصطناعي التي تقوم بمعالجة اللغة الطبيعية تحت ما يسمى بنماذج اللغة الكبيرة Large Language Model, والتي تعتمد على مبدأ المحولات Transforms وهي شبكات عصبية عميقة تمثل نهجا ثوريا في مجال معالجة اللغة الطبيعية, تقوم المحولات على مبدأ تمكين النماذج من التعامل مع السياق اللغوي بشكل أكثر فعالية، حيث يتم تمثيل النصوص بشكل هرمي يأخذ في اعتباره العلاقات بين الكلمات والجمل.

تأتي شبكات المحولات كتقنية مبتكرة تستخدم الشبكات العصبية العميقة لتحليل وتوليف اللغة الطبيعية. بفضل هذه التقنية، يمكن لنماذج اللغة الكبيرة التفاعل بشكل أكثر ذكاء مع اللغة البشرية، سواء في ترجمة النصوص، الفهم اللغوي، أو حتى في إنشاء محتوى جديد.

بالاعتماد على هذه التكنولوجيا، يصبح بإمكان هذه النماذج تحقيق إنجازات لافتة في مجالات متعددة، سواء في تحسين أداء تطبيقات الذكاء الاصطناعي أو في تطوير حلول مبتكرة للتفاعل اللغوي البشري. ما هي تحديدا هذه النماذج وكيف تعمل وما الأمثلة عليها, هذا وأكثر ما سنعرضه في هذا المقال.


ما هي النماذج اللغوية الكبيرة LLM؟

نماذج اللغة الكبيرة هي نماذج معالجة اللغة الطبيعية قائمة على التعلم العميق مثل المحولات Transformers, كما أنها مرتبطة بالذكاء الاصطناعي التوليدي لأنها تقوم على توليد وإنتاج نصوص جديدة, حيث تكون المدخلات نصوصا باللغة الطبيعية والمخرجات أيضا نصوصا باللغة الطبيعية. [1]


إن المهمة الأساسية لنماذج اللغة الكبيرة هي فهم النصوص الطبيعية من أسئلة أو استفسارات أو طلبات معينة وتحليلها للاستجابة لها  كما يجب, سواء أكان بالإجابة على الأسئلة المطروحة أو توليد نصوص جديدة مثل كتابة المقالات و القصص وترجمتها من لغة الى لغة أخرى وغيرها أو التوضيح والشرح لنص سابق, يمكنك تخيل ذلك عندما تستخدم شات جي بي تي للإجابة عن سؤال ما أو أن تستخدمه ليكتب لك تقريرا عن موضوع معين هذا تماما ما نتحدث عنه.


اكتسبت قدرتها على ذلك بتحليلها العلاقات الإحصائية بين الكلمات والعبارات في النصوص, هذا يعني أن النموذج يتعلم كيفية حدوث الكلمات معا وكيفية تأثير ترتيبها على الفهم العام, سواء أكان ذلك باستخدام التعلم غير الخاضع للإشراف حيث يقوم بتحليل النصوص بمفرده أو بقليل من الإشراف بتوجيه من قبل المطورين. 


كيف بدأت النماذج اللغوية الكبيرة من الأساس؟ تتكون المحولات من عدد كبير من المعاملات تصل الى مئات الالاف حتى تتمكن من تحقيق أفضل النتائج في معالجة اللغة الطبيعية, و عند تطوير النموذج لتحسين  أداءه زاد حجمه بشكل ملحوظ وبالتالي زاد عدد المعاملات, الأمر الذي أدى الى الزيادة في حجم البيانات المطلوبة وأصبحت تتطلب أجهزة حوسبة قوية ومتطورة وغيرها من المتطلبات, نتيجة لهذه التحديات أطلق على هذه النماذج اسم النماذج اللغوية الكبيرة.


إذا فالنماذج اللغوية الكبيرة تتميز بوجود مليارات المعاملات في هيكلها والتي تمكنها من تعلم وفهم اللغة بشكل أفضل, أي سيسمح لنموذج اللغة الكبير بتحقيق تطور هائل في قرارات الذكاء الاصطناعي.


نستنتج مما سبق أن حجم النموذج يعتمد على عدد معاملاته, وبالرجوع الى أول نموذج لغوي والذي يسمى ELIZA صنع في عام 1966 كان يحتوي على عدد معاملات قليل جدا, أما أكبر نموذج لغوي حتى هذا اليوم فهو Google's PALM حيث يحتوي على 540 مليون من المعاملات. 



كيف تعمل النماذج اللغوية الكبيرة؟ 

الجوهر الرئيسي في كيفية عمل نماذج اللغة الكبيرة يكمن في الطريقة التي يتم بها تمثيل الكلمات, حيث أن في الماضي، اعتمدت الأساليب الأولى لتعلم الآلة على جدول عددي لتمثيل كل كلمة, ومع ذلك، كانت هذه الطريقة غير قادرة على التعرف على العلاقات بين الكلمات، مثل تلك التي تشترك في المعاني. [2]

تم التغلب على هذه التحديات من خلال استخدام متجهات متعددة الأبعاد، المعروفة باسم تضمين الكلمات، لتمثيل الكلمات بحيث تكون الكلمات ذات المعاني السياقية المتشابهة قريبة من بعضها في الفضاء الناقل ( اطلع على مقالنا حول تضمين الكلمات لتفهم الموضوع بشكل أفضل, من خلال الرابط في الأسفل)


من خلال تضمين الكلمات، تستطيع المحولات معالجة النصوص كتمثيلات عددية عبر المشفر Encoder وفهم سياق الكلمات والعبارات ذات المعاني المتشابهة، وكذلك العلاقات الأخرى بين الكلمات مثل أجزاء الكلام. بفضل ذلك، يمكن لنماذج اللغة الطويلة استغلال هذه المعرفة من خلال المفكرة لإنتاج إخراج فريد.



أمثلة واقعية على النماذج اللغوية الكبيرة

أصبحت النماذج اللغوية الكبيرة اليوم جزءا لا يتجزأ من حياتنا وواقعنا, فوتيرة إنتاج مثل هذه النماذج أصبحت سريعة جدا بل وصارت الشركات تتنافس فيما بينها على تصنيع أحدث النماذج, من أشهر الأمثلة عليها: 

  • الشهير Chat-Gpt: يعد شات جي بي تي روبوت دردشة أصدر من شركة OpenAI ويتيح للمستخدمين من تنقيح وتوجيه الحديث نحو طول مرغوب، تنسيق محدد، أسلوب محدد، مستوى تفصيل محدد، ولغة محددة, صدرت منه إصدارات عديدة وكان آخرها لغاية شهر يناير 2024, GPT-4 والذي يتميز عن GPT-3 أنه يقبل بصورة كأمر أو Prompt أو كجزء من استفسار وتوفير استجابة نصية مناسبة، ويمكنه إنشاء صور، ويمكن التحدث إليه ومن ثم الرد باستخدام صوته.


  •  Microsoft Copilot: أصدر من شركة مايكروسوفت ويعمل داخل تطبيقات Microsoft 365 مثل برامج  Word وExcel وPowerPoint وOutlook, كما يسمح  للمستخدمين بالوصول إلى الرسائل البريدية والدردشات والوثائق, ويستخدم الذكاء الاصطناعي التوليدي ونماذج اللغة الكبيرة لمساعدة المستخدمين في إنشاء أو تنقيح النصوص والصور بشكل أسرع.


  • نموذج BERT: أصدرت Google هذا النموذج ويتميز بأنه نموذج تمثيل للغة غير خاضع للإشراف وثنائي الاتجاه بشكل عميق، وعلى عكس النماذج السابقة، يستطيع معالجة الكلمات بالنسبة لكل الكلمات الأخرى في جملة, إذ يمكنه النظر إلى السياق الكامل لكلمة عن طريق مراجعة الكلمات التي تأتي قبلها وبعدها في نفس الوقت.



التحديات المتعلقة بها

بالرغم أن نماذج اللغة الكبيرة تتمتع بدور كبير في مختلف القطاعات بالإضافة الى دورها في تسهيل بعض الأعمال, إلا أن بعض التحديات مازالت تواجهها, منها: [3]

  • التكلفة العالية: يتطلب تصنيع و تدريب نموذج لغوي كبير إنفاق العديد من الأموال لإنشاء بنية حاسوبية كبيرة الحجم تكون قادرة على توفير القوة الحسابية اللازمة لتدريب النموذج, هذه البنية يجب أن تكون قادرة على القيام بعمليات التدريب باستخدام أداء متوازي، وهو نوع من تقنيات الحوسبة التي تسمح بإجراء عدة عمليات بشكل متزامن، مما يساعد في تسريع عملية التدريب وتحسين كفاءتها.


  •  يتطلب الكثير من الوقت: يحتاج التدريب وقتا طويلا يمتد الى أشهر, بالإضافة الى الحاجة لتدخل البشر في عملية تهيئة النماذج، والتي تشمل ضبط بعض الجوانب الدقيقة لتحسين أداء النموذج.


  • حجم البيانات الكبير: وضحنا في وقت سابق أن النماذج اللغوية الكبيرة, هي كبيرة بسبب حجمها وعدد المعاملات التي تحتويها وهذا الأمر يتطلب وجود كمية كبيرة من البيانات لتدريبه والذي يعد تحديا بسبب صعوبة الحصول على هذا الكم منها.


  • أثر بيئي: لعلك ستسمع بهذا لأول مرة, ولكن للأسف فإن تدريب نموذج ذكاء اصطناعي واحد يؤدي الى انبعاث كمية كبيرة من الكربون, ويمكن مقارنة هذا التأثير الكربوني بأنه يعادل أو يفوق الكمية التي تنتجها خمس سيارات خلال فترة حياتها بأكملها.



الخاتمة

النماذج اللغوية الكبيرة هي عبارة عن نماذج ذكاء اصطناعي تعتمد على مبدأ المحولات Transformers في عملها, وتستخدم لمعالجة اللغة الطبيعية بأشكالها, سواء بتوليد نصوص جديدة أو ترجمتها, مثل Chat-GPT وMicrosoft Copilot ونموذج BERT. رغم التحديات مثل التكلفة والوقت الطويل للتدريب، إلا أنها تلعب دورا حيويا في مختلف القطاعات. ومع ذلك، يظل هناك التحدي البيئي، حيث يحتاج تدريب هذه النماذج إلى إنفاق كميات كبيرة من الطاقة، مما يشير إلى ضرورة البحث عن حلول صديقة للبيئة في تطوير تلك التكنولوجيا. في النهاية، يعكس تطور هذه النماذج تقدما كبيرا في مجال الذكاء الاصطناعي، ويشير إلى مستقبل واعد في تحسين التفاعل بين الإنسان والتكنولوجيا.






المصادر

  1. What are Large Language Models? | Definition from TechTarget
  2. What are Large Language Models? - LLM AI Explained - AWS
  3. What is a Large Language Model (LLM) - GeeksforGeeks
لايوجد تعليقات بعد!

سجل الدخول ﻹضافة تعليق

العلامات