30-12-2006, 15:22
|
|
|
חבר מתאריך: 20.02.03
הודעות: 2,396
|
|
ה"רובוטים" של גוגל, או בשם היותר מוצלח - ספיידרים (מלשון עכביש שהולך מנקודה לנקודה ברשת האתרים הגדולה) מתחילים בנקודה כלשהו (קבוצה מסויימת של אתרים) ונכנסים אליהם. כל אתר בנוי בשפה שנקראת HTML (שאותה אתם כמובן מכירים) ומחפש בתוך התוכן של האתר את התג a שמהווה קישור לדף נוסף. הדף הנוסף יכול להיות חלק מאותו אתר, ויכול להיות דף הנמצא באתר אחר לחלוטין. אותו ספיידר שסרק את האתר יכניס לתוך הדטאבייס של גוגל את כל הקישורים שהוא מצא, וספיידר אחר ימשיך משם את העבודה ויגלוש אל אתרים אחרים שנמצאים בדטאבייס. כל ספיידר, בזמנו החופשי, הולך את הדטאבייס של גוגל ומציא משם דף כלשהו. עבור כל דף שכזה, הגלגל חוזר להתחלה, ושוב מחפש העכביש אחר תגי ה-a שנמצאים באותו דף. ברגע שימצא תג כזה, הקישור ייכנס אל תוך הדטאבייס של גוגל, והספיידרים הבאים ימשיכו את העבודה.
בצורה זו גוגל סורק את כלל הרשת ומנסה להגיע אל כל המקומות הנסתרים ביותר
חשוב לשים לב שהתשובה שלי קשורה אך ורק לצורה שבה הרובוטים של גוגל סורקים את הרשת, וכלל לא קשורה לכל הנושא של שמירת הנתונים שאותו ספיידר מצא, החיפוש עצמו וכו'.
בברכה,
דקל
_____________________________________
"מתכנת זה אדם שפותר בעיה שעל קיומה לא ידעת, בדרך שאינך מבין"
|