ubuntu下file_get_contents返回空字串?

Tags: 問題, 空字元,

本文起初面臨的問題是PHP中SoapClient不好使,最後file_get_contents返回空字串,通過解決這個問題,來解決SoapClient不好使的問題

工具/原料

php安裝擴充套件Soap

方法/步驟

最近PHP程式碼中在執行到

$soapclient = new SoapClient('http://sdk.entinfo.cn:8060/webservice.asmx?WSDL');

這條語句會丟擲異常:

Fatal error: Uncaught SoapFault exception: [WSDL] SOAP-ERROR: Parsing WSDL: Couldn't load from 'http://sdk.entinfo.cn:8060/webservice.asmx?WSDL' : Start tag expected, '<' not found in /ROOT/www/test.php:2 Stack trace

首先檢視PHP是否安裝了Soap擴充套件。檢視phpinfo,可知安裝了Soap擴充套件

ubuntu下file_get_contents返回空字串

根據異常的情況 判斷,意思大概是連文件的Start tag沒有讀到,

1) 在瀏覽器中直接訪問,發現是可以的,

2) curl也是可以的

1)於是用 file_get_contents(),獲取內容,發現返回的是個空字串。

2) 於是檢查 php.ini 中的 allow_url_open, 發現也是開這的

3)遂進行如下測試:

$file = fopen('http://www.example.com/', 'rb'); var_dump(stream_get_meta_data($file));

/* 輸出結果: array(10) {

["wrapper_data"]=> array(2) {

["headers"]=> array(0) { }

["readbuf"]=> resource(38) of type (stream)

}

["wrapper_type"]=> string(4) "cURL"

["stream_type"]=> string(4) "cURL"

["mode"]=> string(2) "rb"

["unread_bytes"]=> int(0)

["seekable"]=> bool(false)

["uri"]=> string(23) "http://www.example.com/"

["timed_out"]=> bool(false)

["blocked"]=> bool(true)

["eof"]=> bool(false) }

*/

輸出的結果中,

wrapper_type為cURL,而且wrapper_data為空,這是不正常的,

正常情況下wrapper_type應為 http,wrapper_data陣列中應該包含響應頭資訊。

發現這個現象與--with-curlwrappers這個編譯選項有 關,遂檢視PHP編譯引數:

$ php -i grep configure

Configure Command => './configure' '--prefix=/usr/local/php' '--with-config-file-path=/usr/local/php/etc' '--with-mysql=/usr/local/mysql' '--with-mysqli=/usr/local/mysql/bin/mysql_config' '--with-iconv-dir=/usr/local' '--with-zlib' '--with-libxml-dir=/usr' '--enable-xml' '--enable-bcmath' '--enable-shmop' '--enable-sysvsem' '--enable-inline-optimization' '--with-curl' '--with-curlwrappers' '--enable-mbregex' '--enable-fpm' '--enable-mbstring' '--with-mcrypt' '--with-openssl' '--with-mhash' '--enable-pcntl' '--enable-sockets' '--with-xmlrpc' '--enable-zip' '--enable-soap' '--enable-bcmath'

--with-curlwrappers被啟用了,問題應該出在這裡,檢視一下這個編譯選項的用處:

$ ./configure --help grep curlwrappers

--with-curlwrappers EXPERIMENTAL: Use cURL for url streams

看來--with-curlwrappers這個編譯選項是用來處理url stream的,不過前面有個碩大的EXPERIMENTAL字樣,還在試驗中。 現有的解決方法是重新編譯PHP,去掉「--with-curlwrappers」:

1) $ cd /path/to/php-5.3.6 (切換到php安裝目錄)

2) $ make clean (一定要make clean)

3) $ ./configure --prefix=/usr/local/php --with-config-file-path=/usr/local/php/etc --with-mysql=/usr/local/mysql \ --with-mysqli=/usr/local/mysql/bin/mysql_config --with-iconv-dir=/usr/local --with-zlib \ --with-libxml-dir=/usr --enable-xml --enable-bcmath --enable-shmop --enable-sysvsem \ --enable-inline-optimization --with-curl --enable-mbregex --enable-fpm --enable-mbstring --with-mcrypt \ --with-openssl --with-mhash --enable-pcntl --enable-sockets --with-xmlrpc --enable-zip \ --enable-soap --enable-bcmath -with-gd --with-jpeg-dir=/usr --with-png-dir=/usr --enable-gd-native-ttf

4) $ make && make install

5) $ cd /usr/local/php/bin # 刪除舊的PHP binary檔案,並用新的進行替換,Mac下重新編譯後會產生php.dSYM檔案,其他Linux系統請自行處理 $ rm php && mv php.dSYM php

6) 重啟 php

完成後,再做個測試:

$file = fopen('http://www.example.com/', 'rb'); var_dump(stream_get_meta_data($file));

/* 結果如下:

array(10) {

["wrapper_data"]=> array(12) {

[0]=> string(18) "HTTP/1.0 302 Found"

[1]=> string(46) "Location:

[2]=> string(13) "Server: BigIP"

[3]=> string(17) "Connection: close"

[4]=> string(17) "Content-Length: 0"

[5]=> string(15) "HTTP/1.1 200 OK"

[6]=> string(35) "Date: Sun, 18 Mar 2012 06:12:27 GMT"

[7]=> string(29) "Server: Apache/2.2.3 (CentOS)"

[8]=> string(44) "Last-Modified: Wed, 09 Feb 2011 17:13:15 GMT"

[9]=> string(21) "Vary: Accept-Encoding"

[10]=> string(17) "Connection: close"

[11]=> string(38) "Content-Type: text/html; charset=UTF-8"

}

["wrapper_type"]=> string(4) "http"

["stream_type"]=> string(14) "tcp_socket/ssl"

["mode"]=> string(2) "rb"

["unread_bytes"]=> int(1225)

["seekable"]=> bool(false)

["uri"]=> string(23) "http://www.example.com/"

["timed_out"]=> bool(false)

["blocked"]=> bool(true)

["eof"]=> bool(false) } */

wrapper_type變成了http,wrapper_data也被填充了,一切恢復正常。

所以一條結論:慎用--with-curlwrappers

相關問題答案