الأرشفة هي مشكلة شائعة يواجهها المدونون ومشرفي المواقع ، مما يجعلهم يبحثون عن طرق فعالة لتسريع الأرشفة والظهور في محركات البحث بعد الدقائق الأولى من نشر مقال ، لأن هناك مقالات سئم المدون من كتابتها واكتشفها في النهاية ، لأنها لا تظهر على Google حتى بعد فترة نشر طويلة.
يتم نشر آلاف المواقع الجديدة على الإنترنت كل يوم. تتم فهرسة جميع مواقع الويب بواسطة Google ومحركات البحث الأخرى لتسهيل العثور عليها على الويب. بسبب عبء العمل الكبير ، تعتمد محركات البحث على روبوتات البحث لإنجاز المهمة بسرعة.
تعد أرشفة الموقع عاملاً رئيسيًا في إطلاق محرك بحث بالإضافة إلى زيادة عائدات الإنترنت ، لذلك من الضروري فهم كيفية حل مشكلة أرشفة المقالات حتى تتمكن Google من توجيه نتائج البحث. هذا يضاعف أرباحك في AdSense.
قد يواجه بعض المستخدمين مشكلات في أرشفة المقالات ، لذا يجب أن تعرف كيفية استكشاف أخطاء أرشفة المقالات وإصلاحها.
في هذه المقالة سنبدأ بتحديد أبرز الطرق التي تساعد في عملية أرشفة المقالات ، والتي ستمكنك من تجنب أي مشاكل قد تظهر في مدونتك على Blogger أو WordPress.
بصفتنا مدونين في عالم المدونات ، لا نعتمد على المواقع الاجتماعية لأننا نعلم أنه في يوم من الأيام سيتم حظر الموقع. هذا هو السبب في أننا نكتب مقالات بمعايير تحسين محركات البحث (SEO) الكاملة لتزويدك بحركة مرور لا نهائية على Google.
بالطبع ، هناك العديد من الطرق لحل المشكلة ،
تتمثل العملية الأولى في Google Search Console في التحقق من ملكية موقعك. بالطبع ، يعد امتلاك موقع ويب أمرًا سهلاً للغاية ولا يتعين عليك أن تكون خبيرًا. تمت إضافة هذه العملية للتحقق من الموقع. إذا كنت مالك الموقع بالفعل أو أضفت موقعًا آخر ، فإن الرمز الموجود أسفل <head> يكمل عملية التحقق.
عند إضافة استضافة مجانية أو مدفوعة ، ستظهر عملية إضافة النطاق في حقل "عنوان URL ".
في قسم "ميزة جديدة للنطاق" ، يمكنك إضافة النطاق بدون www ، على سبيل المثال
في الخطوة الثانية ، سيُطلب منك نسخ ولصق علامة HTML الوصفية أسفل <head> للتأكيد.
انسخ العلامة الوصفية كما هو موضح في الصورة ، وانتقل إلى مدونتك ، وانتقل إلى البحث والتخصيص ، وقم بتحرير HTML ، والصق الرمز أسفل <head> وحفظه ، ثم ارجع إلى مسؤول الموقع وانقر فوق "موافق" لإنشائه . راجع تفعيل موقعك .
عملية تنشيط الموقع مهمة بطريقتين. الجانب الأول هو أن أحد شروط كسب المال باستخدام Google Adsense هو تنشيط الموقع ، والجانب الثاني هو تحسين محرك البحث (SEO) كما هو مذكور أعلاه. .
2 - خريطة الموقع:Sitemap
ملف Sitemap هو ملف XML يخبر Google بالصفحات التي تريد فهرستها. بمعنى آخر ، اعرض لـ Google صفحات الصفحات التي تريد ظهورها في نتائج البحث. تقرأ محركات البحث مثل Google هذه الملفات وتخدم الويب.فأنت بحاجة إلى خريطة موقع لموقع الويب الخاص بك حتى تتم فهرسة المحتوى الخاص بك في نتائج بحث Google. فقط تخيل عدد مواقع الويب التي تنتظر الزحف إليها بواسطة محركات البحث. بالعامية ، فإن إنشاء ملف Sitemap يشبه إخبار Google ، "هذا ملخص لما هو مهم لموقع الويب الخاص بي. يرجى إلقاء نظرة وإظهار عمليات البحث ذات الصلة في أقرب وقت ممكن.
كيفية تثبيت خريطة الموقع Sitemap بشكل صحيح؟
يوجد في الجزء العلوي من إرشادات التثبيت عنوان "إضافة خريطة موقع جديدة" وإضافة 5 ملفات. وأهمها ملف sitemap.xml. اضغط على إرسال عند الإضافة والتهنئة.
/atom.xml
/feeds/posts/default
/rss.xml
/sitemap.xml
atom.xml?redirect=false&start-index=1&max-results=500/
ملاحظة: بالنسبة إلى (atom.xml?redirect=false&start-index=1&max-results=500/) ، يمكنك العثور على الملف في هذا المكان.Blogger / خريطة الموقع Sitemap
أضف المجال الخاص بك كما هو موضح في الصورة. وانقر فوق إنشاء ملف Sitemap
انسخ الملف ذي المسار، مثل الصورة ، وأضفه إلى ملف خريطة الموقع.
كما ترى ، إذا أضفنا جميع الملفات التي نقدمها ، فستبدو كصورة.
ملف Robot TXT
لا يعرف الكثيرون سبب عدم ظهور وصف الموضوعات في محركات البحث ، مع العلم أنه أضاف قالبا مدفوعًا ، وهو سليم وسريع ، ويضيف العلامات وجميع معايير SEO من الألف إلى الياء.
يتم إنشاء ملف robots.txt عادةً لبرامج الروبوت لمواقع مثل Google (ومحركات البحث الأخرى) ، وهو عبارة عن روبوت يقوم بالزحف إلى ملفات ومجلدات معينة على موقعك ويفهرسها في نتائج محرك البحث. يسمح ملف robots.txt لمالكي المواقع بحظر أو السماح للعناكب بالوصول أو الزحف أو البحث أو فهرسة صفحات أو محتوى معين.
ما هو ملف Robots.txt؟
ملف robots.txt هو ملف نصي هدفه التحكم في حركة روبوتات البحث القادمة إلى مدونتك عبر محركات البحث التي تقوم بفهرسة موضوعات المدونة مثل What is it و Google و Bing وما إلى ذلك. هذا خاص بروابط ملفات الروبوت التي لا يجب تضمينها في نتائج البحث للتحكم في المدونة.
عادةً ما تبدو محتويات ملف robots.txt كما يلي:
User-agent: Mediapartners-Google
Disallow:
User-agent: *
Disallow: /search
Allow: /
Sitemap: https://https://www.newjdid.com/atom.xml?redirect=false&start-index=1&max-results=500
هناك 4 أوامر في ملف robots.txt.
User-agent أو وكيل المستخدم: يمكنك استهداف روبوتات محددة. وكلاء المستخدم هم ما تستخدمه الروبوتات لتعريف أنفسهم. على سبيل المثال ، يمكنك إنشاء قاعدة تنطبق على Google وليس Bing لمنع الزحف إلى موقعك أو الزحف إليه.
Disallow سيمنع هذا برامج الروبوت من الوصول إلى مجلدات معينة على موقعك.