recent
أخبار ساخنة

كيفية حل مشكلة أرشفة المقالات على موقعك وكيفية أرشفة موقعك ومقالاتك بسرعة على جوجل

الأرشفة هي مشكلة شائعة يواجهها المدونون ومشرفي المواقع ، مما يجعلهم يبحثون عن طرق فعالة لتسريع الأرشفة والظهور في محركات البحث بعد الدقائق الأولى من نشر مقال ، لأن هناك مقالات سئم المدون من كتابتها واكتشفها في النهاية ، لأنها لا تظهر على Google حتى بعد فترة نشر طويلة.



يتم نشر آلاف المواقع الجديدة على الإنترنت كل يوم. تتم فهرسة جميع مواقع الويب بواسطة Google ومحركات البحث الأخرى لتسهيل العثور عليها على الويب. بسبب عبء العمل الكبير ، تعتمد محركات البحث على روبوتات البحث لإنجاز المهمة بسرعة.

تعد أرشفة الموقع عاملاً رئيسيًا في إطلاق محرك بحث بالإضافة إلى زيادة عائدات الإنترنت ، لذلك من الضروري فهم كيفية حل مشكلة أرشفة المقالات حتى تتمكن Google من توجيه نتائج البحث. هذا يضاعف أرباحك في AdSense.

قد يواجه بعض المستخدمين مشكلات في أرشفة المقالات ، لذا يجب أن تعرف كيفية استكشاف أخطاء أرشفة المقالات وإصلاحها.

في هذه المقالة سنبدأ بتحديد أبرز الطرق التي تساعد في عملية أرشفة المقالات ، والتي ستمكنك من تجنب أي مشاكل قد تظهر في مدونتك على Blogger أو WordPress.

بصفتنا مدونين في عالم المدونات ، لا نعتمد على المواقع الاجتماعية لأننا نعلم أنه في يوم من الأيام سيتم حظر الموقع. هذا هو السبب في أننا نكتب مقالات بمعايير تحسين محركات البحث (SEO) الكاملة لتزويدك بحركة مرور لا نهائية على Google.

بالطبع ، هناك العديد من الطرق لحل المشكلة ،

تتمثل العملية الأولى في Google Search Console في التحقق من ملكية موقعك. بالطبع ، يعد امتلاك موقع ويب أمرًا سهلاً للغاية ولا يتعين عليك أن تكون خبيرًا. تمت إضافة هذه العملية للتحقق من الموقع. إذا كنت مالك الموقع بالفعل أو أضفت موقعًا آخر ، فإن الرمز الموجود أسفل <head> يكمل عملية التحقق.

عند إضافة استضافة مجانية أو مدفوعة ، ستظهر عملية إضافة النطاق في حقل "عنوان URL ".

في قسم "ميزة جديدة للنطاق" ، يمكنك إضافة النطاق بدون www ، على سبيل المثال



في الخطوة الثانية ، سيُطلب منك نسخ ولصق علامة HTML الوصفية أسفل <head> للتأكيد.



انسخ العلامة الوصفية كما هو موضح في الصورة ، وانتقل إلى مدونتك ، وانتقل إلى البحث والتخصيص ، وقم بتحرير HTML ، والصق الرمز أسفل <head> وحفظه ، ثم ارجع إلى مسؤول الموقع وانقر فوق "موافق" لإنشائه . راجع تفعيل موقعك .




عملية تنشيط الموقع مهمة بطريقتين. الجانب الأول هو أن أحد شروط كسب المال باستخدام Google Adsense هو تنشيط الموقع ، والجانب الثاني هو تحسين محرك البحث (SEO) كما هو مذكور أعلاه. .

2 - خريطة الموقع:Sitemap

ملف Sitemap هو ملف XML يخبر Google بالصفحات التي تريد فهرستها. بمعنى آخر ، اعرض لـ Google صفحات الصفحات التي تريد ظهورها في نتائج البحث. تقرأ محركات البحث مثل Google هذه الملفات وتخدم الويب.فأنت بحاجة إلى خريطة موقع لموقع الويب الخاص بك حتى تتم فهرسة المحتوى الخاص بك في نتائج بحث Google. فقط تخيل عدد مواقع الويب التي تنتظر الزحف إليها بواسطة محركات البحث. بالعامية ، فإن إنشاء ملف Sitemap يشبه إخبار Google ، "هذا ملخص لما هو مهم لموقع الويب الخاص بي. يرجى إلقاء نظرة وإظهار عمليات البحث ذات الصلة في أقرب وقت ممكن.

كيفية تثبيت خريطة الموقع Sitemap بشكل صحيح؟



يوجد في الجزء العلوي من إرشادات التثبيت عنوان "إضافة خريطة موقع جديدة" وإضافة 5 ملفات. وأهمها ملف sitemap.xml. اضغط على إرسال عند الإضافة والتهنئة.

/atom.xml

/feeds/posts/default

/rss.xml

/sitemap.xml

atom.xml?redirect=false&start-index=1&max-results=500/


ملاحظة: بالنسبة إلى (atom.xml?redirect=false&start-index=1&max-results=500/) ، يمكنك العثور على الملف في هذا المكان.Blogger / خريطة الموقع Sitemap 

أضف المجال الخاص بك كما هو موضح في الصورة. وانقر فوق إنشاء ملف Sitemap

انسخ الملف ذي المسار، مثل الصورة ، وأضفه إلى ملف خريطة الموقع. 

كما ترى ، إذا أضفنا جميع الملفات التي نقدمها ، فستبدو كصورة.


ملف Robot TXT

لا يعرف الكثيرون سبب عدم ظهور وصف الموضوعات في محركات البحث ، مع العلم أنه أضاف قالبا مدفوعًا ، وهو سليم وسريع ، ويضيف العلامات وجميع معايير SEO من الألف إلى الياء.

يتم إنشاء ملف robots.txt عادةً لبرامج الروبوت لمواقع مثل Google (ومحركات البحث الأخرى) ، وهو عبارة عن روبوت يقوم بالزحف إلى ملفات ومجلدات معينة على موقعك ويفهرسها في نتائج محرك البحث. يسمح ملف robots.txt لمالكي المواقع بحظر أو السماح للعناكب بالوصول أو الزحف أو البحث أو فهرسة صفحات أو محتوى معين.

ما هو ملف Robots.txt؟

ملف robots.txt هو ملف نصي هدفه التحكم في حركة روبوتات البحث القادمة إلى مدونتك عبر محركات البحث التي تقوم بفهرسة موضوعات المدونة مثل What is it و Google و Bing وما إلى ذلك. هذا خاص بروابط ملفات الروبوت التي لا يجب تضمينها في نتائج البحث للتحكم في المدونة.


عادةً ما تبدو محتويات ملف robots.txt كما يلي:

User-agent: Mediapartners-Google

Disallow:

User-agent: *

Disallow: /search

Allow: /

Sitemap: https://https://www.newjdid.com/atom.xml?redirect=false&start-index=1&max-results=500

هناك 4 أوامر في ملف robots.txt.

User-agent أو وكيل المستخدم: يمكنك استهداف روبوتات محددة. وكلاء المستخدم هم ما تستخدمه الروبوتات لتعريف أنفسهم. على سبيل المثال ، يمكنك إنشاء قاعدة تنطبق على Google وليس Bing لمنع الزحف إلى موقعك أو الزحف إليه.

Disallow سيمنع هذا برامج الروبوت من الوصول إلى مجلدات معينة على موقعك.

Allow يستخدم هذا الأمر في بعض الحالات. بشكل افتراضي ، يتم تمييز جميع المجلدات والملفات الموجودة على موقعك على أنها "مسموح بها" ، لذلك لا تحتاج إلى استخدام الأمر "allow" في ملف robots.txt الخاص بك.

Sitemap: https://......./atom.xml?redirect=false&start-index=1&max-results=500 إنها الخريطة مع روابط الموضوعات الخاصة بموقعك ، حيث https://www.....com/ هو الرابط إلى موقعك.
الآن دعنا نفهم المزيد حول هذه الأوامر حتى تتمكن من كتابة ملف الروبوت الخاص بك لمدونتك إذا كنت تريد أرشفة سلاسل الرسائل فقط أو منع أرشفة صفحات البحث بالإضافة إلى صفحات الأقسام من الأرشفة لتجنب المحتوى المكرر من Google Web Master.

اختبار كفاءة ملف Robots.txt

يمكنك استخدام Google Search Console لاختبار فعالية ملف robots.txt لمدونتك أو موقعك للتأكد من إعداد الملف بشكل صحيح. استخدم الأدوات التي توفرها Google. الرابط إلى هذه الأداة هو Test Robots.txt.
ثم أرسل جميع الروابط بما في ذلك الصفحة الرئيسية واضغط على زر الاختبار للتحقق من الروابط التي أدخلتها وإذا كان كل شيء قابلاً للزحف ، فيجب تمييزه على أنه سماح أخضر. يمكنك أيضًا اختبار الروابط المحظورة الأخرى على موقعك لمعرفة ما إذا كانت محظورة بالفعل أو لا يُسمح لها بالوصول




Reactions:
author-img
New JDID

تعليقات

ليست هناك تعليقات
إرسال تعليق
    google-playkhamsatmostaqltradent