如何利用SEO盈利:[5]編程語言、數據庫常識?

本節經驗主要介紹編程語言、數據庫、以及網絡基本常識

如何利用SEO盈利:[5]編程語言、數據庫常識

工具/原料

電腦

網站搭建程序

編程語言介紹

編程語言是用來開發數字信息設備上的所有程序。(計算機、手機、pad等數字設備軟件都是用編程語言開發的 )

編程語言和源碼的關係:數字信息設備上0所有的軟件

都是由源碼組成的,源碼是由編程語言寫出來的

如何利用SEO盈利:[5]編程語言、數據庫常識

網頁製作過程中常用的編程語言有:asp、jsp、php、javascript。每個語言都自己的優缺點,不同功能和類型的網站會用不同的編程語言編寫

如何利用SEO盈利:[5]編程語言、數據庫常識

如何利用SEO盈利:[5]編程語言、數據庫常識

數據庫

當我們建好一個網站之後,樣式和效果都能顯示,但是裡面沒有文章,數據庫就是存放網站文章的地方。在我們購買空間的時候一般都送數據庫。

如何利用SEO盈利:[5]編程語言、數據庫常識

如何利用SEO盈利:[5]編程語言、數據庫常識

數據庫的分類根據編程語言的不同分為一下幾類:

asp——access

php——mysql

jsp——mysql

因為95%的網站都是用PHP語言搭建的,所以mysql數據庫是用的最多的 。

如何利用SEO盈利:[5]編程語言、數據庫常識

網絡基本常識

HTTP狀態碼(HTTP Ststus Code)是用來表示網頁服務器HTTP響應的3位數字代碼。

如何利用SEO盈利:[5]編程語言、數據庫常識

在我們瀏覽網頁或者打開自己網站的時候,經常會碰到網頁打不開,這時候打不開的網頁就會返回一個錯誤提示的頁面,通過這個頁面提示的代碼我們可以知道錯誤的根源在那 。

如何利用SEO盈利:[5]編程語言、數據庫常識

HTTP代碼:

2xx成功代碼

200正常;請求完成

201正常;緊接POST命令

3xx重定向

301已移動——請求數據具有新的位置且更改是永久的

302已找到——請求的數據臨時具有不同的URL

303請參閱其他——可在另一個URL下找到對請求的響應且應使用GET方法檢索此響應。

如何利用SEO盈利:[5]編程語言、數據庫常識

如何利用SEO盈利:[5]編程語言、數據庫常識

如何利用SEO盈利:[5]編程語言、數據庫常識

robots文件簡單的來說就是給你的網站做一個權限清單,一般是針對SEO優化的,在這個文件裡面寫上那些文件、那些形式的鏈接允許搜索引擎抓取,那些不允許。

如何利用SEO盈利:[5]編程語言、數據庫常識

為什麼要放robots文件,放在那。

在我們網站還沒調整完善好的時候,不想讓搜索引擎收錄,可以通過這個文件屏蔽搜索引擎的蜘蛛抓取。

這個文件的名字就是robots.txt。是固定的不管那個網站的文件名都是這個,一般我們會把robots.txt放到FTP根目錄下。

如何利用SEO盈利:[5]編程語言、數據庫常識

robots.txt文件用法舉例:

  1. 允許所有的robot訪問

  User-agent: * Allow: / 或者 User-agent: * Disallow:

  2. 禁止所有搜索引擎訪問網站的任何部分

  User-agent: *

  Disallow: /

  3. 僅禁止Baiduspider訪問您的網站

  User-agent: Baiduspider

  Disallow: /

  4. 僅允許Baiduspider訪問您的網站

  User-agent: Baiduspider

  Disallow:

  5. 禁止spider訪問特定目錄

  User-agent: *

  Disallow: /cgi-bin/

  Disallow: /tmp/

  Disallow: /~joe/

  6. 允許訪問特定目錄中的部分url

  User-agent: *

  Allow: /cgi-bin/see

  Allow: /tmp/hi

  Allow: /~joe/look

  Disallow: /cgi-bin/

  Disallow: /tmp/

  Disallow: /~joe/

  7. 使用”*”限制訪問url

  禁止訪問/cgi-bin/目錄下的所有以”.htm”為後綴的URL(包含子目錄)。

  User-agent: *

  Disallow: /cgi-bin/*.htm

  8. 使用”$”限制訪問url

  僅允許訪問以”.htm”為後綴的URL。

  User-agent: *

  Allow: .htm$

  Disallow: /

  例9. 禁止訪問網站中所有的動態頁面

  User-agent: *

  Disallow: /*?*

  10. 禁止Baiduspider抓取網站上所有圖片

  僅允許抓取網頁,禁止抓取任何圖片。

  User-agent: Baiduspider

  Disallow: .jpg$

  Disallow: .jpeg$

  Disallow: .gif$

  Disallow: .png$

  Disallow: .bmp$

  11. 僅允許Baiduspider抓取網頁和.gif格式圖片

  允許抓取網頁和gif格式圖片,不允許抓取其他格式圖片

  User-agent: Baiduspider

  Allow: .gif$

  Disallow: .jpg$

  Disallow: .jpeg$

  Disallow: .png$

  Disallow: .bmp$

  12. 僅禁止Baiduspider抓取.jpg格式圖片

  User-agent: Baiduspider

  Disallow: .jpg$

  注意:robots.txt是有分大小寫的,默認文件名全小寫,規則裡面要注意區分大小寫,

如何利用SEO盈利:[5]編程語言、數據庫常識

動態鏈接與靜態鏈接區別動態鏈接在打開的鏈接裡面帶有?號,靜態鏈接沒有

如何利用SEO盈利:[5]編程語言、數據庫常識

常識, 數據庫, 編程語言, 盈利,
相關問題答案