دارامان

سئو-طراحي سايت

سئو-طراحي سايت
نويسندگان
عضويت
نام کاربري :
پسورد :
تکرار پسورد:
ايميل :
نام اصلي :
آمار
امروز : 337
ديروز : 312
افراد آنلاين : 1
همه : 336276
پيوندهاي روزانه
لينكي ثبت نشده است
چت باکس

ربات هاي وب (كه به نام هاي سرگردانان وب، خزندگان يا عنكبوت ها نيز شناخته مي شوند) به برنامه هايي مي گويند كه به صورت خودكار سراسر وب را مي گردند و جستجو مي كنند. موتورهاي جستجويي نظير گوگل از آنها براي محتواي درون وب استفاده مي كنند و اسپمرها براي به دست آوردن ايميل آدرس ها. آنها كارايي هاي بي شماري دارد.

توضيحات واضح در مورد فايل robots.txt

دارندگان سايت ها از robots.txt جهت معرفي ساختار سايتشان به ربات هاي سراسر وب استفاده مي كنند.

يك مثال در ارتباط با چگونگي كاركرد اين فايل: يك ربات جستجوگر مثل ربات گوگل قصد ورود به سايت شما را دارد تا موارد مورد نظرش چون خطاها، صفحات، محتوا، تصاوير و غيره را ايندكس كند. در صورتي كه صفحه ورودي شما http://www.example.com/welcome.html باشد، ربات مورد نظر ابتدا و پيش از هر نوع بررسي سايت شما نشاني http://www.example.com/robots.txt را چك خواهد كرد. و در نهايت به اين دستورات بر خواهد خورد:

عبارت User-agent: * به معناي اين است كه اين سايت و اين دستور براي هم? ربات ها يكسان است. و قسمت Disallow: / حاوي اين پيام است كه هيچ رباتي نبايد هيچ قسمتي از اين سايت را بررسي و مشاهده نمايد.

دو نوع نگرش نسبت به استفاده كنندگان از robots.txt وجود دارد:

1.       ربات ها مي توانند robots.txt شما را ناديده بگيرند! به خصوص آنكه ربات هاي مخرب، كارشان اسكن نمودن سراسر وب براي يافتن نقص هاي امنيتي، ايميل آدرس ها و غيره است، كوچكترين توجهي به محتويات robots.txt ندارند.

2.       فايل robots.txt يك فايل در دسترس عموم مي باشد. هركسي مي تواند ببيند كه شما كدام قسمت را تمايل نداريد كه ربات هاي ديگر ببينند.

*پس براي مخفي نمودن اطلاعاتتان با استفاده از robots.txt تلاش نكنيد.

نحو? ساخت يك فايل robots.txt

كجا آن را قرار دهيم؟

پاسخ كوتاه: در بالاترين سطح دايركتوري سرور سايتتان

پاسخ كامل: زمانيكه يك روبات به دنبال فايل robots.txt براي نشاني URL شما مي گردد، به دنبال اولين اسلش پس از اكستنشن شما مي رود و به صورت اتوماتيك عبارت robots.txt را قرار مي دهد.

براي مثال اگر داشته باشيم: http://www.example.com/shop/index.html، ربات مورد نظر /shop/index.html را حذف نموده و /robots.txt را جايگزين و در انتهاي URL قرار مي دهد.

به همين خاطر شما به عنوان دارنده سايت مي بايست اين فايل را در مكان صحيح و جايي قرار دهيد كه در نتايج جستجو ديده شده و عمل نمايد. معمولا اين فايل را در جايي مشابه همان صفحه اصلي سايت (index.html) يا همان صفح? به اصطلاح خوشامدگويي قرار مي دهند.

*فراموش نكنيد كه تمام حروف اين فايل كوچك نوشته مي شوند: صحيح: robots.txt ؛ غلط: Robots.TXT

چه چيزي در آن بنويسيم؟

فايل robots.txt يك فايل متني است كه از يك يا تعداد بيشتري از دستورات ساخته شده است. به صورت معمول شامل يك دستور شبيه به اين مي شود:

در مثال فوق شاهد 3 دايركتوري محروم شده هستيد كه با استفاده از اين 3 دستور، پيامي به ربات هاي سراسر وب ارسال مي كند كه به معني عدم دسترسي ايشان به فايل هاي مشخص شده است.

توجه داشته باشيد كه براي محروم نمودن ربات ها به يك URL خاص، بايد در هر خط مجزا يك دستور جديد را وارد نماييد. شما نمي توانيد دستور Disallow: /cgi-bin/ /tmp/ را در يك خط وارد نماييد. همچنين نبايد در مقابل يك دستور، خط را خالي بگذاريد چراكه براي ربات اين تصور مي شود كه دستور مورد نظر براي تمام وبسايت شما قابل اجرا است.

ضمنا شما نمي توانيد به صورت منظم و نامنظم دستورات داخل فايل را با يكديگر ادغام نماييد. براي مثال علامت "*" در فيلد User-agent به معناي آن است كه دستورات وارد شده در مقابل اين عبارت براي تمامي ربات ها لازم الاجراست. به طور مشخص و عيني شما نمي توانيد دستوراتي چون User-agent: *bot*", "Disallow: /tmp/*" or "Disallow: *.gif را در كنار همديگر وارد نماييد.

بررسي دقيق نماييد كه چه چيزهايي را نمي خواهيد ربات ها ببينند. هرچيزي را كه نمي خواهيد آنها ببينند را به راحتي مي توانيد از ديدشان مخفي كنيد. به مثال هاي زير توجه بفرماييد:

خط فرمان به تمام ربات ها براي عدم دسترسي به كل سايت شما

خط فرمان به تمام ربات ها براي دسترسي به كل سايت شما

براي اجراي دستور فوق همچنين مي توانيد يك فايل robots.txt بدون متن بسازيد و هيچوقت به سراغش نرويد.

خط فرمان به تمام ربات ها براي عدم دسترسي به بخشي از سايت شما

خط فرمان به يك ربات خاص براي عدم دسترسي اش به كل سايت (براي مثال نام ربات "BadBot" است)

خط فرمان به تنها يك ربات خاص جهت دسترسي به كل سايت شما و عدم دسترسي ساير ربات ها:

خط فرمان به تمام ربات ها براي عدم دسترسي به تمام فايل ها به جز برخي از آنها:

يا براي مشخص نمودن دقيق يك نشاني و يا فايل مي توانيد از اين دستورات استفاده كنيد و نشاني دقيق را در باكس robots.txt وارد نماييد.


ادامه مطلب
امتياز:
بازديد:
برچسب: ،
موضوع:
[ ۲۳ بهمن ۱۳۹۲ ] [ ۰۴:۲۴:۳۱ ] [ طراح ]

حتما تا بحال هنگام فعاليت هاي اينترنتي مانند تبادلات مالي آنلاين ، ترافيك وب سايت ها و موتورهاي جستجو ، نظرسنجي هاي آنلاين ، ثبت نام هاي آنلاين ، سرويس هاي ايميل رايگان و بسياري ديگر از چنين موارد با كادري روبرو شده ايد كه حاوي اعداد و يا حروف به صورت نامرتب و كج است Captcha نرم افزاري ست كه با پرسيدن سوالاتي كه جواب  دادن به آنها توسط انسان راحت است مي پردازد و به منظور حمله به اين سيستم ها طراحي شده اند.Captcha در واقع يك مكانيزم امنيتي محسوب مي شود كه تعيين مي كند كه طرف مقابل شما يك كامپيوتر است يا يك انسان .لازم به ذكر است بدانيم كه تست تورينگ توسط انسان برگزار مي شود و هدفش تشخيص ماشين است اما كپچا توسط ماشين برگزار مي شود و هدفش تضخيص انسان است.
پنج نوع از كپچاهاي مرسوم عبارتند از:

√ Captcha تصويري همراه با صداي تلفظ شده كاراكتر درون عكس

كپچا-چيست1

√ Captcha اي كه بايد عكس موردنظر را در تصوير پيدا كرد

كپچا-چيست2

√ Captcha اي كه بايد كه مسدله ي رياضي ساده حل كرد

كپچا-چيست3

√ Captcha هاي سه بعدي

كپچا-چيست3 (2)

√ Captcha هايي با استفاده از تبليغات

كپچا-چيست4

با استفاده از كپچا تنها انسان ها قادر به انتشار نظر در بخش وبلاگ سايت شما خواهند بود و به اين ترتيب نياز به عضويت در سايت يا وبلاگ شما براي جلوگيري از نظرات اسپم نيست.
سايت هايي مثل گوگل و ياهو كه نيازمند عضويت تعداد بسياري از افراد هستند قبل از بكارگيري كپچا مشكلات زيادي نظير ساخت تعداد زيادي از اكانت دارند كه بتوانند در چند دقيقه صدها ايميل بسازند اما پس از استفاده از سيستم كپچا تنها انسان ها قادر به تكميل فرم و ثبت نام نهايي مي باشند و امروزه به يك ضرورت در سيستم هاي رايگان تبديل شده است.
از كاربردهاي ديگر كپچا مي توان به جلوگيري از هك شدن اشاره كرد به طوريكه با چند تلاش اشتباه در سيستم هاي ايميل مانند ياهو يك كپچا به كاربر نشان داده ميشود تا از اين روش هك جلوگيري شود.
نكته ي مهم : استفاده از كپچاهايي كه تشخيص آن حتي براي انسان هم مشكل است موجب ترك كاربران مي شود همچنين بكارگيري روش هاي ديگري مانند شناسايي نظرات اسپم و ذخيره در حافظه سرور ميتوانند جايگزين مناسبي براي كپچا در سايت هاي كم بازديد باشند.


ادامه مطلب
امتياز:
بازديد:
برچسب: ،
موضوع:
[ ۲۳ بهمن ۱۳۹۲ ] [ ۰۴:۲۴:۰۵ ] [ طراح ]

تصور مي كنيم كه شما 2 سايت طراحي كرده ايد و هركدام در دو زمينۀ متفاوت و مختص به خود مشغول به فعاليت هستند. يكي از اين سايتها را 2 سال پيش طراحي نموده ايد و در جريان اين 2 سال فعال بوده است. و ديگري را حدود 1 ماه است كه اجرا نموده و هر روز مطالبي تخصصي در آن درج مي كنيد.

هيچ كدام از اين 2 سايت سئو نشده اند. حال قصد داريد سايت شمارۀ 3 را در يكي از همان دو زمينۀ تخصصي راه اندازي كنيد.

اكنون اين پرسش مطرح مي شود: آيا بايد سايت قديمي را بهينه سازي و سئو كنيد و يا از نو سايتي ديگر طراحي كنيد و از همان ابتدا آن را سئو، بهينه سازي و اصولي نماييد؟

اين پرسش مدت هاست در ذهن مديران وبسايت هاست. ما در مثال بالا بهترين حالت ممكن را آورديم. حالتي كه سايت پيشين هم فعال بوده و تنها سئوي خاصي بر روي آن انجام نگرفته است. اكنون فرض كنيد كه سايت قديمي با قدمت 2 ساله نه تنها سئوي مناسبي نداشته كه محتواي تكراري و كپي درج نموده، دورۀ زماني مشخصي براي به روزرساني انجام نداده، و همچنين از ابزار وبمستر تولز نيز كوچكترين بهره اي نبرده تا آناليزي هرچند كلي از تارنماي مربوطه داشته باشد.

سئو + طراحي

در ارتباط با مدل شمارۀ 1، پاسخ مورد نظر متفاوت با مدل شمارۀ 2 مي باشد. از همين مثال دوم آغاز مي كنيم:

پاسخ كوتاه اين است كه سئوي تارنماي مذكور با توجه به عدم استفادۀ وبمستر آن از ابزار وبمستر تولز گوگل، اگر ناممكن نباشد به شدت غير قابل پذيرش است كه بتواند توجه ربات ها و صفحات نتايج جستجوي گوگل را به خود معطوف كند (آن هم با اين ارفاق كه از كنار لينك هاي جريمه شده بگذريم!).

اما نشدني هم نيست. اين نشدني نبودن به راحتي طراحي يك سايت جديد نيست و بسيار سخت خواهد بود. از موارد ساده اي كه مي توان به آن اشاره كرد، ثبت سايت در موتورهاي جستجو، ثبت در وبمستر تولز گوگل و آناليز كامل آن پس از حدود 1 ماه، توليد محتواي جديد، رفع خطاهاي واكنش دستي و غيره! براي مشاوره و راهنمايي با كارشناسان ما تماس بگيريد!

و اما مورد يكم كه مرتبط با سايتي است كه 2 سال فعاليت مداوم داشته، توليد محتوا نموده اما بر اساس اصول سئو حركت نكرده است هرچند كه اولين اصل سئو توليد محتواي جديد و غير تكراري است.

چنين سايتي با صرف زمان قابل توجهي به آساني و البته با استفاده از متخصصين مجرب، امكان ارتقاي پلكاني و حتا آني را داشته و در جايگاه حقيقي خود در صفحات نتايج جستجوي گوگل قرار خواهد گرفت. خواه رتبۀ يكم و خواه رتبه دهم!

از روش هاي موثر و آغازين سئوي يك سايت، ثبت آن در وبمستر گوگل، ارسال ربات هاي گوگل يا Crawlerها جهت بررسي تك تك لينك هاي تارنماي مورد نظر، كشف و اصلاح خطاهاي سرور اعم از 404، 503 و امثالهم، يافتن Manual Actionها، ساختن بك لينك داخلي و ارسال و دريافت بك لينك حقيقي خارجي و مواردي از اين دست مي باشند.

سئو + طراحي + ايده

توجه داشته باشيد كه سئو تنها محدود و منحصر به ايجاد چند لينك داخلي، يافتن و حذف و اصلاح نمودن لينك هاي تخريب شده و غير قابل استفاده نيست. سئو شدن يك وبسايت نيازمند فردي متخصص در همين زمينه مي باشد كه به جاي اصلاح، سايت را به اعماق جريمه ها و نابودي كامل آن نكشاند. بارها در ساير مقالات و كتب سئوي زياد و عدم سپردن بهينه سازي سايت به دست افراد نابلد، طرح شده است. همانطور كه براي هر آچاري كه بر ماشين تان مي كشيد ارزش قائليد و نگران هستيد، همان را به سطح سايت خود ارتقا داده و جلوي تخريب آن را نه تنها گرفته كه به بهترين وجه ممكن كار رو تمام خواهيم نمود.

توجه بفرماييد كه در بسياري از سرويس هاي وب نويسي، عدم ايجاد تغييرات در برخي از اين سرويس ها به صورت هشدارگونه در ارتباط با فايلهايي چون robots.txt مطرح گشته است. در ارتباط با robots.txt بيشتر بخوانيد.


ادامه مطلب
امتياز:
بازديد:
برچسب: ،
موضوع:
[ ۲۳ بهمن ۱۳۹۲ ] [ ۰۴:۲۳:۴۲ ] [ طراح ]
در مقاله وبمستر تولز به زبان ساده به طور كلي در ارتباط با بخش هاي مختلف وبمستر تولز توضيحاتي ارائه نموديم.
اينبار به صورت جزيي تر يك بخش كاربردي ديگر وبمستر تولز را خدمتتان معرفي مي كنيم:

بخش Removal URLs

Removal URLs

اين ابزار را در بخش گوگل ايندكس در وبمستر تولز قرار داده اند. به اين علت كه يكي از پايه هاي اساسي سئو، حذف است. بله! هميشه توليد محتواي صرف، نمي تواند براي شما اعتبار بياورد. گاها شما به حذف برخي از لينك هاي وبسايتتان نيز نياز داريد. لازم است تا گرد و غبار كنيد و كمي وبسايتتان را از كهنگي و اضافه باري كه تنها ضرر دارند، در بياوريد. Removal URLs براي همين آمده است. اين ابزار براي آن ساخته شده كه شما بتوانيد وب خود را از ايندكس هر نوع صفحه اي كه خطاهايي نظير 404، 503 و... دارد را معاف كرده و حتا نتايج پيشين را از گوگل حذف نماييد.

زماني كه به اين ابزار مراجعه مي كنيد و URLي را وارد مي نماييد با 3 گزينه مواجه خواهيد شد: (پيش از همه بدانيد كه بايد وبسايت خود را از قبل در وبمستر تولز ثبت كرده باشيد!)

1-      Remove page from search results and cache: با انتخاب اين گزينه نشاني صفحۀ URLتان را از صفحات نتايج جستجوي گوگل حذف كرده ايد. با اين روش شما به صفحات جستجوي گوگل مي گوييد كه صفحه مورد نظرتان با اشكالاتي نظير خطاي 404 روبرو شده و ديگر در دسترس نيست.

2-      Remove page from cache only: همانطور كه مشخص است شما از ربات ايندكس كننده گوگل مي خواهيد كه صفحۀ مورد نظرتان را از حافظۀ Cashe خود حذف كند. اين انتخاب باعث اين خواهد شد كه ربات ايندكس كننده مجددا صفحه شما را ايندكس كرده و صفحۀ مذكور را دوباره بررسي كنند.

3-      Remove directory: انتخابي است براي حذف كامل يك URL و تمامي زير شاخه ها و ساب دامين هاي آن. به عبارتي وقتي كه شما اين عبارت را براي نشاني اي چون http://example.com مي زنيد، به صفحات جستجوي گوگل مي گوييد كه تمام آنچه كه در همين URL و ساير شاخه ها و زير شاخه هاي آن موجود است را از نتايجش حذف نمايد.

چه زماني نبايد از ابزار Removal URLs استفاده كرد؟

1-      هر نوع فايلي كه فكر مي كنيد بيهوده است را پاك نكنيد. ما دوباره آن ها را ايندكس مي كنيم.

2-      خطاهايي كه توسط خزندۀ گوگل شناسايي مي شوند را از وبمسترتولز خود حذف نكنيد.

3-      اگر دوميني را از شخص ديگري به صورت دست دوم خريده ايد و نگران اين هستيد كه در هدف خزنده هاي ما باشند به ما اطلاع دهيد. پيش از اطلاع دادن چيزي را حذف نكنيد.

4-      اگر سايتتان هك شده است تمام سايت را از پايه حذف نكنيد. تنها به فايلهايي بسنده كنيد كه مي دانيد هكر مورد نظر آنها را در روت هاستتان ايجاد كرده است.براي مثال http://www.example.com/buy-cheap-cialis-skq3w598.html اما ما به هيچ عنوان پيشنهاد حذف كل سايت يا حتا لينك هايي را كه مي خواهيد ايندكس شوند را نمي كنيم.

5-      بسياري از سايتها از صفحات مشابهي در نشاني هاي متفاوت دارند. اگر وبسايت شما هم چنين است و ضمنا نمي خواهيد لينك هاي تكراري در نتايج جستجو داشته باشيد، متدهاي پيشنهادي ما را بخوانيد. هيچگاه از Removal URLs براي حذف لينكهاي تكراري استفاده نكنيد چراكه اين كار باعث حذف تمامي نسخه هاي سايت شما (نظير http, https, www و بدون www) از نتايج جستجو خواهد شد.


ادامه مطلب
امتياز:
بازديد:
برچسب: ،
موضوع:
[ ۲۳ بهمن ۱۳۹۲ ] [ ۰۴:۲۳:۰۴ ] [ طراح ]

امروزه ديگر اگرچه متخصصين حرفه اي سئو و بهينه سازي وبسايت همچنان فعال هستند اما به صورت مشخص چند ده فاكتور براي عيب يابي و پيشنهادات متفاوت به صورت ابزاري آنلاين وجود دارند كه تقريبا ما را به صورت اتوماتيك هدايت، راهنمايي و از نيازمندي به متخصصيني صرفا سئوكار احتياجي نيست چراكه ماشين ها اين كارها را به خوبي انجام مي دهند.

سئو و تگ ها

صحيح است كه حتا سئوكاران از تمام اين ابزار كه در ادامه مي آيد براي ارتقاي سئو و بهينه سازي وبسايت شما انجام مي دهند اما با كمي دانش در اين زمينه و مطالعۀ مرتبط با اين رشتۀ تخصصي، تا حدود بسيار زيادي مي توانيم متكي به همين دانش تحت وب باشيم.

همچنين استفادۀ صحيح از ابزار وبمسترتولز گوگل، گوگل آناليتيكز و البته خزنده هاي بينگ (مايكروسافت) كمك شاياني در ارتقاي سطح سئو و بهينه سازي وبسايت مورد نظر خواهد داشت.

يك به يك به معرفي اين وبسايت ها و همچنين سايت هاي جامعي كه در زمينه سئو مي نويسند مي پردازيم:
 
وبسايت Woorank.com

اين وبسايت به شما اجازه مي دهد در هفته، 1 وبسايت را از يك آي پي مشخص به طور رايگان آناليز كرده و به طور كامل تمامي آنچه كه براي سئو و بهينه سازي وبسايت خود نياز داريد را بررسي و تحليل كنيد. اين سايت به بهترين شيوه اين كار را براي شما انجام خواهد داد. در صورت نياز بيشتر مي توانيد عضو اين سايت شويد و از همين خدمات بدون محدوديت تعداد وبسايت استفاده نماييد. همچنين با مراجعه به بخش تعرفه ها با 2 گروه از وبسايت ها مواجه خواهيد شد. وبسايت هاي شركتي، خبرگزاري ها و سايت هايي با ترافيك و حجم بالاي اطلاعات؛ و سايتهايي در مقياس كوچكتر همچون شركت هاي خدماتي، سايتهاي شخصي، سايت هاي اطلاع رساني تخصصي و وبلاگها. كه براي مورد اول مي بايست 149 دلار و براي مورد دوم 49 دلار در ماه شارژ خواهيد شد. همچنين وبلاگ وورنك اطلاعات به روز و مفيدي در زمينه هاي ماركتينگ، سئو و بلاگينگ در اختيار مخاطبان مي گذارد.

سئو براي طراحي واكنشگرا

وبسايت Chkme

اين وبسايت نيز به تازگي در ميان بسياري از وبمستران معروف شده است. اما آناليزها نشان مي دهد كه تحليل بسيار دقيقي ارائه نمي دهد هرچند كه وبسايتي بسيار قدرتمند در نوع خود مي باشد و منهاي اينها، خدمات سئوي آن رايگان است. فاكتورهاي اصلي اش در تعيين درصد سئو، تگ هاي h1, h2 و h3 مي باشد. همچنين مواردي چون اعتبار كدنويسي در W3 را بررسي نموده و بر اساس آن نيز درصد مورد نظر را با ارائۀ راهنمايي هايي در زمينۀ بهتر نمودن شرايط سئوي سايت ارائه مي كند.

وبسايت SEOMoz

از مشهورترين وبسايت هاي راهنما در زمينۀ سئو و بهينه سازي سايت. سئوموز كه تحت فرمان رند فيكشن حركت مي كند. اين وبسايت نيز به غير از مقالات و راهنماهايي كه به رايگان در اختيار مخاطبين مي گذارد، يك دورۀ 30 نيز به عنوان پلان فروشي دارد كه از آن طريق شما به خدمات بيشتر سئوموز دسترسي پيدا خواهيد كرد. وبلاگ سئوموز تقريبا هر روز به روزرساني مي گردد.

وبسايت SEO.com

شعارش هست: اولين در بهينه سازي براي موتور جستجو! به صورت آنلاين هم در عرض چند ثانيه (گاهي تا 1 يا 2 دقيقه ممكن است طول بكشد) سايت شما را ارزيابي و سئو مي كند و هم در همان لحظه راهنمايي هاي لازم را در باكس هاي چند خطي روبروي همان مورد مشخص مي آورد.

ادامه مطلب
امتياز:
بازديد:
برچسب: ،
موضوع:
[ ۲۳ بهمن ۱۳۹۲ ] [ ۰۴:۲۲:۲۷ ] [ طراح ]

همانطور كه در مقاله ي كدام را انتخاب كنيم: سئو يا بهينه سازي؟ گفته شد اولين اصل سئو توليد محتواي جديد و غيرتكراري است اما با وجود اين اصل مطالب كپي زيادي در وب ديده مي شود و همچنين روش هاي زيادي براي كپي مطالب از جمله استفاده از Feed و كپي مطالب به صورت مستقيم وجود دارد.

 نحوۀ-جلوگيري-از-كپي-تصاوير-و-مطالب-سايت

خبرخوان و يا فيد روشي ساده است كه به شما اين امكان را مي دهد كه به راحتي آخرين مطالب، اخبار ،عكس و يا هر اطلاعات ديگر را دريافت كنيد و با استفاده از نرم افزار خبرخوان مي توانيد به راحتي آخرين مطالب سايت ها را ببينيد.استفاده از هر دو روش كپي برداري مستقيم و خبرخوان مي تواند موجب از دست دادن بخشي از كاربران سايت شما شود.

براي جلوگيري از نمايش مطالب و عكس هاي خود در ساير وب سايت ها مي توان از ويژگي Hot link استفاده كرد. Hotlink ها لينك هاي مستقيمي از domain شما به image ها يا فايل هاي multimedia از ديگر domain ها مي باشند كه اينكار مي تواند موجب كاهش ترافيك سايت شما شود.براي جلوگيري از كپي تصاوير سايت خود مي توان با استفاده از يك فايل بسيار كوچك به نام htaccess استفاده كرد.همچنين در صورتي كه مايليد به جاي تصاوير وب سايت شما كه در ساير وب سايت ها لينك داده شده است يك تصوير جايگزين انتخاب كنيد.

با تكميل فرم در سايت htaccesstools مي توانيد مانع كپي مطالب سايت خود شويد .حال به توضيح تيترهاي اين  صفحه مي پردازيم.

Allowed Domain : در اين بخش نام سايت يا سايت هايي كه مي خواهيد دسترسي به تصاوير را داشته باشند معرفي كنيد؛در اين بخش نياز به نوشتن www نيست.

Allow Blank Referers : با توجه به اينكه تعدادي از افراد با استفاده فايروال هاي خاص امكان رديابي و شناسايي محل ارجاع را به شما نمي دهند در اين بخش ميتوانيد دسترسي اين افراد به تصاوير را محدود كنيد. توجه داشته باشيد كه با اين كار كساني كه قصد كپي مطالب سايت را ندارند و با وارد كردن آدرس تصوير به صفحه آن ميرسند نيز محدود ميشوند. در مجموع پيشنهاد ميكنيم كه اين گزينه را تغيير نداده و در حالت پيش فرض باقي بگذاريد.

Blocked Image URL : در اين بخش مي توانيد از يك تصوير جايگزين هنگام كپي كردن تصاوير استفاده كنيد بايد توجه داشته باشيد كه اين تصوير بايد از دامنه اي باشد كه اجازه استفاده از تصاوير را به ديگران بدهد.

Files To Protect : اين قسمت مخصوص پسوند فايل هايي است كه ميخواهيد در كپي مطالب سايت و دامنه هاي خارجي نمايش داده نشوند مي باشد.

با فشردن كليد generate وارد صفحه ي ديگري ميشويد كه نشان مي دهد كد موردنشر براي شما توليد شده است.با اضافه كردن اين كد به htaccess در روت هاست خود اجازه كپي مطالب و تصاوير سايت را به ديگران نخواهيد داد.بعد از انجام اين مراحل با رجوع به سايت Test hotlink protection مي توانيد به تست كپي تصاوير خود بپردازيد.


ادامه مطلب
امتياز:
بازديد:
برچسب: ،
موضوع:
[ ۲۳ بهمن ۱۳۹۲ ] [ ۰۴:۲۱:۵۰ ] [ طراح ]

شبكه هاي اجتماعي جديدترين ابزار در بازاريابي اينترنتي هستند كه به طور قابل توجهي باعث رشد سريع وبسايت ها مي گردند. استفاده از اين شبكه ها روز به روز در حال افزايش هستند و موفقيت و اعتبار شركت‏ها در استفاده از اين سبك جديد تبليغات به صورت بالقوه در حال رشد است.
شبكه هاي اجتماعي نظير فيسبوك دومين نقطۀ برجسته و قوت يك وبسايت براي تبديل آن به يك تجارت بزرگ است.

شبكه هاي اجتماعي

اگر بخواهيم در يك جمله، سخن را خلاصه كنيم، مي توانيم بگوييم كه شبكه هاي اجتماعي، يك انقلاب هستند. چه وبسايت داشته باشيد و چه نداشته باشيد.
خودسوزي يك فرد و هجوم كاربران براي ديدن فيلم آن در فيسبوك، پيدا كردن بهترين شغل متناسب با شرايط شما از طريق گوگل پلاس، پيدا كردن دنيايي از منابع براي آغاز و به اتمام رساندن بزرگترين پايان نامه ها در ويكي پديا، آغاز انقلابي در تونس و پس از آن در بسياري از كشورهاي عربي نظير مصر، ليبي، يمن، سوريا و غيره از طريق انتشار يك فيلم چند دقيقه اي در يوتيوب، نجات يافتن از زير آواز در سونامي هاييتي با هشتگ زدن در توييتر، آسان شدن شنيدن و دريافت موسيقي و كاهش هزينه هاي توليد آلبوم هاي خوانندگان و به تبع آن فروش بيشتر و زنده شدن كپي رايت در ماي اسپيس و چندين مورد ديگر كه شبكه هاي اجتماعي در آسان سازي زندگي كمك رسان بوده اند.
حال، شما براي ارتقاي تجارت خود حاضر به توليد محتوا براي اين شبكه ها و سودرساني به شركت خود نيستيد؟

انقلاب شبكه هاي اجتماعي


ادامه مطلب
امتياز:
بازديد:
برچسب: ،
موضوع:
[ ۲۳ بهمن ۱۳۹۲ ] [ ۰۴:۲۱:۲۹ ] [ طراح ]

ماه گذشته، گوگل با ايجاد نمودن فرمي در گوگل داكس، از كساني كه فكر مي كنند ممكن است يك سايت خاص و مورد نظر ايشان، از توجه گوگل دور مانده و جايگاه مناسبي در جستجو نيافته، درخواست كرد كه در اين فرم، كاربران با درج نام سايت (نام دامنه) و توضيحي در اين ارتباط كه چرا شما فكر مي كنيد اين سايت جايگاه مناسبي ندارد، درج نمايند و گوگل آن را بررسي خواهد كرد،در اين مقاله مي خواهيم تا به نگاه گوگل به تعداد صفحات سايت بپردازيم.

نگاه گوگل به تعداد صفحات سايت

مت كاتس –مدير ارشد بخش مبارزه با اسپمينگ گوگل- مي گويد: سايت هايي با اطلاعات محتوايي و صفحات بيشتر از دو جهت مي توانند شانس بيشتري در رده بندي گوگل داشته باشند. بدون شك اين مطالب نبايد كپي باشند.

وي در اين ويديو مي گويد كه زماني كه صفحات سايتتان را افزايش مي دهيد، اين شانس را داريد كه كلمات كليدي بيشتري نيز استفاده كنيد و براي كلمات كليدي بيشتري، مطالب را سئو كنيد. چراكه در حالت عادي امكان درج بيش از دو يا سه كلمۀ كليدي اصلي نيست.

اين "نبودن" به معناي امكان نداشتن و ممنوع بودن نيست. بدين معني است كه نمي توان براي يك صفحه بيش از دو يا سه كلمه كليدي را متصور شد.

مطلب بعد در ارتباط با سايتهايي با صفحات بالاست. اين نوع سايتها به دو دسته تقسيم مي گردند؛ يا سايتهايي كه مطالبشان را مستقيما از صفحات ديگر كپي مي كنند و يا سايتهايي با صفحات بالا و نسبتا بالا كه خود توليد كنندۀ محتوا و مطالب مفيد هستند. اين سايتها شانس زيادي براي دريافت بك لينك هاي واقعي و معرفي از جانب سايت هاي ديگر خواهند داشت كه به اعتبار و كسب جايگاه بهتر در نتايج گوگل كمك زيادي خواهد كرد. همچنين افزايش بك لينك حقيقي، شانس ورود روبات هاي گوگل به سايت شما و ايندكس نمودن صفحاتتان را بالا خواهد برد.


ادامه مطلب
امتياز:
بازديد:
برچسب: ،
موضوع:
[ ۵ بهمن ۱۳۹۲ ] [ ۰۳:۱۹:۱۳ ] [ طراح ]

متاتگ از اهميت بالاي برخوردار است و اطلاعات وب را به مرورگر يا موتور گوگل معرفي مي كند به عبارتي محتواي توضيحات متا در نتايج جستجوي گوگل قابل رويت مي باشد و زمانيكه سايت شما در ميان صفحات بسيار ديگري در گوگل به كاربران اينترنتي نشان داده مي شود،تنها توضيحات متا و عنوان صفحه قابل رويت است و همين دو عامل است كه به كاربران در انتخاب بهترين نتيجه كمك مي كند.

اهميت توضيحات متا در بهينه سازي سايت

از آنجاييكه متاتگ از چشم بازديدكننده پنهان است بيشتر در جهت بهينه سازي سايت كاربرد دارد و استفاده صحيح از آن مي تواند در رتبه بندي گوگل موثر باشد.

مت كاتس در ويديويي اعلام كرده كه از توضيحات متا استفاده نمي كند و اين بخش را خالي مي گذارد.به عبارتي مت كاتس با بيان اين موضوع نتيجه را به گوگل واگذار كرده است.از طرفي اين موضوع اهميت توضيحات متا را بيشتر نشان مي دهد زيرا توضيحات متا مي تواند روي سئو و تعيين كلمات كليدي آن موثر باشد و در نهايت احتمال اينكه بازديد از سايت شما افزايش پيدا كند بيشتر مي شود.
اما مشكل هنگامي رخ مي دهد  كه برخي افراد از افزونه هاي مختلفي براي تكميل خودكار اين بخش استفاده ميكنند و يا صفحات متعددي در سايت خود دارند كه پاراگراف اول آنها يكسان است. در چنين مواردي متن هاي تكراري در توضيحات متاي صفحات متفاوت مشاهده ميگردد كه از نظر روبات هاي گوگل قابل پذيرش نيست.

اهميت اين موضوع تا جايي است كه در ابزار وبمستر گوگل بخشي مجزا به نام HTML Improvements قرار داده شده تا صفحاتي كه عنوان يا توضيحات مشابه دارند را به شما معرفي كند.در آخر اگر سايت شما روزانه مطالب جديدي ارائه نمي كند و  يا زمان كافي براي نوشتن توضيحات اختصاصي نداريد مي توانيد مانند مت كاتس اين بخش را خالي بگذاريد تا خود گوگل در مورد آن تصميم بگيرد.


ادامه مطلب
امتياز:
بازديد:
برچسب: ،
موضوع:
[ ۵ بهمن ۱۳۹۲ ] [ ۰۳:۱۸:۵۱ ] [ طراح ]

بسياري از ادمين ها و بلاگرها تصور مي كنند كه اگر يك متني توليد كردند، براي آنكه متنشان توسط افراد بيشتري خوانده شود و ربات هاي جستجوگر گوگل را بيشتر جذب كنند، آن را در چندين نشاني ديگر كپي مي كنند. حال آنكه امروزه بايد بدانيم كه حتا نشاني هايي كه بعضا با www و همچنين بدون اين 3 حرف، فعال هستند نيز در خطر جدي ايندكس نشدن و جريمه شدن هستند.

گوگل سخت تلاش مي كند تا صفحاتي با اطلاعات متمايز از ساير صفحات وب، ايندكس كند و نشان دهد.

گوگل چندين راه براي پيشگيري از ايجاد لينكهاي تكراري و همچنين راههايي جهت نشان دادن آنچه كه شما مي خواهيد برايتان ايندكس شود را پيش پايتان مي گذارد:

  1. تلاش كنيد تا لينكهاي داخلي‏تان بدون نقص باشند. براي مثال به صفحاتي اين چنيني لينك ندهيد: http://www.example.com/page/  و  http://www.example.com/page and http://www.example.com/page/index.htm.
  2. از وبمستر تولز براي آنكه به گوگل بگوييد كدام قسمت از سايتتان را ايندكس كند استفاده كنيد. شما مي توانيد به گوگل، دومين اصلي تان را معرفي كنيد. براي مثال http://www.example.com or http://example.com).
  3. كاربران از ديدن صفحات خالي خوششان نمي آيد. پس تا جاي ممكن از اين اقدام جلوگيري نماييد. براي مثال: صفحاتي را كه هنوز براي آن مطلبي نداريد، ايجاد و منتشر نكنيد. اگر قصد ايجاد چنين صفحاتي را داشتيد، از noindex meta tag جهت قفل نمودن اين گونه صفحات از ايندكس شدن استفاده كنيد. اين بدين معناست كه از كد nofollow و نظاير آن كه در بسياري از سي ام اس ها (كه جديدترين شان وردپرس است و به راحتي اين كار را براي لينك ها انجام مي دهد) تعريف شده، استفاده نماييد.

در موارد نادر، الگوريتم گوگل ممكن است يك URLي را از يك سايت انتخاب كند كه در حال انتشار مطلب شما بدون اجازه تان است. اگر شما معتقديد كه آن سايت در حالت كپي برداري مطلب شما بدون رعايت قوانين كپي رايت است، احتمالا بايد با هاست سايت مربوطه تماس بگيريد و درخواست حذفش را بدهيد. به علاوه، مي توانيد درخواست حذف آن صفحۀ خاص را از طريق صفحۀ "درخواست تكميل فرم مخصوص به قوانين نقض شده" به گوگل بفرستيد.

تمام اين موارد براي حفاظت از حقوق افراد ذكر شد. اما چه اتفاقي براي سايتهايي كه مطالب و محتوا و دسترنج ديگران را با يا بدون ذكر منبع (امروزه براي صفحۀ نتايج جستجوي گوگل تفاوتي نمي كند) بر روي سايت خودشان پياده مي كنند مي افتد؟

پيش از اشاره به اين مطلب بايد دوباره خاطر نشان كرد كه حتا صفحات داخلي يك سايت اگر مشابه هم نيز باشند، بر سئو و ايندكس سايتتان تاثير خواهد گذاشت. به همين خاطر ابزار مختلفي را كه وبمستر تولز در اختيار كاربران گذاشته نيز مي توان بسيار كاربردي يافت. در اين ارتباط در مقالات پيشين توضيحاتي را ارائه داديم و در آينده نيز مقالاتي از اين دست منتشر خواهد شد.

تاثير محتواي تكراري بر سئو

برويم سر بحث اصلي!

گوگل و رباتهاي جستجوگرش پس ارائۀ الگوريتم مرغ مگس خوار، دقت فراواني در گشتن به دنبال اولين صفحه اي هستند كه با توجه به زمان و تاريخ ايندكس شدن، مطلب را درج كرده است و باقي صفحات را از بخش نتايج جستجو حذف خواهند كرد. البته در صورت درخواست كاربر، گوگل مي تواند صفحات تكراري را نيز نشان دهد اما در حالت عادي اين صفحات براي گوگل فاقد ارزش و محتوا هستند.


ادامه مطلب
امتياز:
بازديد:
برچسب: ،
موضوع:
[ ۵ بهمن ۱۳۹۲ ] [ ۰۳:۱۸:۳۲ ] [ طراح ]
[ ۱ ][ ۲ ][ ۳ ][ ۴ ][ ۵ ][ ۶ ][ ۷ ][ ۸ ][ ۹ ][ ۱۰ ][ ۱۱ ][ ۱۲ ][ ۱۳ ][ ۱۴ ][ ۱۵ ][ ۱۶ ][ ۱۷ ][ ۱۸ ][ ۱۹ ][ ۲۰ ][ ۲۱ ][ ۲۲ ][ ۲۳ ][ ۲۴ ][ ۲۵ ][ ۲۶ ][ ۲۷ ][ ۲۸ ][ ۲۹ ][ ۳۰ ][ ۳۱ ][ ۳۲ ][ ۳۳ ][ ۳۴ ][ ۳۵ ][ ۳۶ ][ ۳۷ ][ ۳۸ ][ ۳۹ ][ ۴۰ ][ ۴۱ ][ ۴۲ ][ ۴۳ ][ ۴۴ ][ ۴۵ ][ ۴۶ ][ ۴۷ ][ ۴۸ ][ ۴۹ ][ ۵۰ ][ ۵۱ ][ ۵۲ ][ ۵۳ ][ ۵۴ ][ ۵۵ ][ ۵۶ ][ ۵۷ ][ ۵۸ ][ ۵۹ ][ ۶۰ ][ ۶۱ ][ ۶۲ ][ ۶۳ ][ ۶۴ ][ ۶۵ ][ ۶۶ ][ ۶۷ ][ ۶۸ ][ ۶۹ ][ ۷۰ ][ ۷۱ ][ ۷۲ ][ ۷۳ ][ ۷۴ ][ ۷۵ ][ ۷۶ ][ ۷۷ ][ ۷۸ ][ ۷۹ ][ ۸۰ ][ ۸۱ ][ ۸۲ ][ ۸۳ ][ ۸۴ ][ ۸۵ ][ ۸۶ ][ ۸۷ ][ ۸۸ ][ ۸۹ ][ ۹۰ ][ ۹۱ ][ ۹۲ ][ ۹۳ ][ ۹۴ ][ ۹۵ ][ ۹۶ ][ ۹۷ ][ ۹۸ ][ ۹۹ ][ ۱۰۰ ][ ۱۰۱ ][ ۱۰۲ ][ ۱۰۳ ][ ۱۰۴ ][ ۱۰۵ ][ ۱۰۶ ][ ۱۰۷ ][ ۱۰۸ ][ ۱۰۹ ][ ۱۱۰ ][ ۱۱۱ ][ ۱۱۲ ][ ۱۱۳ ][ ۱۱۴ ][ ۱۱۵ ][ ۱۱۶ ][ ۱۱۷ ][ ۱۱۸ ][ ۱۱۹ ][ ۱۲۰ ][ ۱۲۱ ][ ۱۲۲ ][ ۱۲۳ ][ ۱۲۴ ][ ۱۲۵ ][ ۱۲۶ ]
.: Weblog Themes By bigtheme :.

درباره وبلاگ

موضوعات وب
موضوعي ثبت نشده است
پنل کاربري
نام کاربري :
پسورد :
نظرسنجی
لينک هاي تبادلي
فاقد لینک
تبادل لينک اتوماتيک
لينک :
خبرنامه
عضويت لغو عضويت
امکانات وب