正因為css發揮了它應有的功效,把字句隱藏起來,所以才沒有被察覺。
而google和yahoo的機器人抓取到那樣的結果也是事實
,搜尋結果影響搜尋者對網站的觀感也不容忽視。
如果是自己從0開始寫的網站,我會想更多辦法例如加上META TAG來協助搜尋器去抓取我希望讓搜尋者看了就會進去的字句,好增加更多人流。
所以一旦在著名的搜尋器裡出現預想之外的結果時,沒有一個網管不著急的。因為不知道搜尋器要到甚麼時候才會修正過來。
能夠在瀏覽器出現問題時自動提出警告當然是最好的,不過一旦因而產生新的問題時,總不能只說「作者好心才那樣做的」,而忽視了問題。我是這樣想:使用pLog來建blog的朋友中,多少是對程式編寫有認識,多少是只希望找一個無痛的方法讓自己暢快地發表思想呢?如果是後者的話,相信一旦發生問題,要找出問題所在的能力也不太高吧?
正因為grey是其中一個預設的模版,多少會背負著官方推薦的頭銜,所以相信不少以發表思想為大前提的用戶都會使用。我的朋友當中,就有兩三位經常不明所以地弄壞家中電腦,連WEB和WAP也搞不懂的人,卻每天都在不同的平台上寫文章,他們都是喜愛發表,但沒有打算深入地學習寫程式。當他們見到搜尋器上出現那樣的結果,可能只有無奈,而不知道為甚麼。
我想,「沒有隱藏問題」和「沒有想過會隱藏問題」是兩種層次的事情。
我充份明白作為一個坐享其成的人,我這種說法會惹火了一直以來在pLog上辛勤努力的各位。而且,即使無論怎樣也好,我還是在使用pLog。如果我不喜愛pLog,就會索性使用別的weblog平台,甚至自己寫個一般的網站好了。我在這裡貼出的每一個問題,都是希望從一個架站能力有限的用戶的立場作出發點發問的,希望將來那樣的用戶真能無痛架blog。
接下來要回到正題。其實那隱藏的警告字句為甚麼會給搜尋機器人抓著呢?那是正常的嗎?如果不正常的話是甚麼因素導致它們被抓到?是字句的表現方式和位置影響、伺服器的設定問題、網頁需要加上其他標籤配合,還是要在robots.txt裡加以規範呢?如果這字句改成檢查USER AGENT之後才動態地決定是否顯示出來會否更好呢?
如果原作者認為這樣做沒有問題的話,作為用戶,選擇把問題點刪除該是最差勁的選擇吧?