本節經驗主要介紹編程語言、數據庫、以及網絡基本常識
工具/原料
電腦
網站搭建程序
編程語言介紹
編程語言是用來開發數字信息設備上的所有程序。(計算機、手機、pad等數字設備軟件都是用編程語言開發的 )
編程語言和源碼的關係:數字信息設備上0所有的軟件
都是由源碼組成的,源碼是由編程語言寫出來的
網頁製作過程中常用的編程語言有:asp、jsp、php、javascript。每個語言都自己的優缺點,不同功能和類型的網站會用不同的編程語言編寫
數據庫
當我們建好一個網站之後,樣式和效果都能顯示,但是裡面沒有文章,數據庫就是存放網站文章的地方。在我們購買空間的時候一般都送數據庫。
數據庫的分類根據編程語言的不同分為一下幾類:
asp——access
php——mysql
jsp——mysql
因為95%的網站都是用PHP語言搭建的,所以mysql數據庫是用的最多的 。
網絡基本常識
HTTP狀態碼(HTTP Ststus Code)是用來表示網頁服務器HTTP響應的3位數字代碼。
在我們瀏覽網頁或者打開自己網站的時候,經常會碰到網頁打不開,這時候打不開的網頁就會返回一個錯誤提示的頁面,通過這個頁面提示的代碼我們可以知道錯誤的根源在那 。
HTTP代碼:
2xx成功代碼
200正常;請求完成
201正常;緊接POST命令
3xx重定向
301已移動——請求數據具有新的位置且更改是永久的
302已找到——請求的數據臨時具有不同的URL
303請參閱其他——可在另一個URL下找到對請求的響應且應使用GET方法檢索此響應。
robots文件簡單的來說就是給你的網站做一個權限清單,一般是針對SEO優化的,在這個文件裡面寫上那些文件、那些形式的鏈接允許搜索引擎抓取,那些不允許。
為什麼要放robots文件,放在那。
在我們網站還沒調整完善好的時候,不想讓搜索引擎收錄,可以通過這個文件屏蔽搜索引擎的蜘蛛抓取。
這個文件的名字就是robots.txt。是固定的不管那個網站的文件名都是這個,一般我們會把robots.txt放到FTP根目錄下。
robots.txt文件用法舉例:
1. 允許所有的robot訪問
User-agent: * Allow: / 或者 User-agent: * Disallow:
2. 禁止所有搜索引擎訪問網站的任何部分
User-agent: *
Disallow: /
3. 僅禁止Baiduspider訪問您的網站
User-agent: Baiduspider
Disallow: /
4. 僅允許Baiduspider訪問您的網站
User-agent: Baiduspider
Disallow:
5. 禁止spider訪問特定目錄
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/
6. 允許訪問特定目錄中的部分url
User-agent: *
Allow: /cgi-bin/see
Allow: /tmp/hi
Allow: /~joe/look
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/
7. 使用”*”限制訪問url
禁止訪問/cgi-bin/目錄下的所有以”.htm”為後綴的URL(包含子目錄)。
User-agent: *
Disallow: /cgi-bin/*.htm
8. 使用”$”限制訪問url
僅允許訪問以”.htm”為後綴的URL。
User-agent: *
Allow: .htm$
Disallow: /
例9. 禁止訪問網站中所有的動態頁面
User-agent: *
Disallow: /*?*
10. 禁止Baiduspider抓取網站上所有圖片
僅允許抓取網頁,禁止抓取任何圖片。
User-agent: Baiduspider
Disallow: .jpg$
Disallow: .jpeg$
Disallow: .gif$
Disallow: .png$
Disallow: .bmp$
11. 僅允許Baiduspider抓取網頁和.gif格式圖片
允許抓取網頁和gif格式圖片,不允許抓取其他格式圖片
User-agent: Baiduspider
Allow: .gif$
Disallow: .jpg$
Disallow: .jpeg$
Disallow: .png$
Disallow: .bmp$
12. 僅禁止Baiduspider抓取.jpg格式圖片
User-agent: Baiduspider
Disallow: .jpg$
注意:robots.txt是有分大小寫的,默認文件名全小寫,規則裡面要注意區分大小寫,
動態鏈接與靜態鏈接區別動態鏈接在打開的鏈接裡面帶有?號,靜態鏈接沒有