Search Engine
A. Pengertian
Search
engine (mesin pencari) adalah program
komputer yang dirancang untuk melakukan pencarian atas berkas-berkas yang
tersimpan dalam layanan www,
ftp, publikasi milis,
ataupun news group dalam sebuah ataupun
sejumlah komputer peladen
dalam suatu jaringan. Hasil pencarian umumnya ditampilkan
dalam bentuk daftar yang seringkali diurutkan menurut
tingkat akurasi ataupun rasio pengunjung atas suatu berkas yang disebut sebagai
hits. Informasi yang menjadi
target pencarian bisa terdapat dalam berbagai macam jenis berkas seperti
halaman situs
web, gambar, ataupun jenis-jenis berkas lainnya. Beberapa mesin pencari
juga diketahui melakukan pengumpulan informasi atas data yang tersimpan dalam
suatu basisdata
ataupun direktori web.
B. Sejarah
Saat awal
perkembangan internet, Tim Berners-Lee membuat sebuah situs web yang
berisikan daftar situs web yang ada di internet melalui peladen web CERN. Sejarah yang
mencatat sejak tahun 1992 masih ada hingga kini.[2]
Dengan semakin banyaknya situs web yang aktif membuat daftar ini tidak lagi
memungkinkan untuk dikelola oleh manusia. Utilitas pencari yang pertama kali
digunakan untuk melakukan pencarian di internet adalah
Archie yang berasal dari kata
"archive" tanpa
menggunakan huruf "v".[3]
Archie dibuat tahun 1990 oleh Alan Emtage, Bill Heelan dan J. Peter Deutsch,
saat itu adalah mahasiswa ilmu komputer Universitas McGill, Amerika
Serikat. Cara kerja program tersebut adalah mengunduh daftar direktori
serta berkas yang terdapat pada layanan ftp publik (anonim)
kemudian memuatnya ke dalam basisdata yang memungkinkan pencarian.
Mesin pencari lainnya seperti Aliweb, muncul di 1993 dan masih
berjalan hingga saat ini. Salah satu mesin pencari pertama yang sekarang
berkembang menjadi usaha komersial yang cukup besar adalah Lycos, yang dimulai
di Carnegie Mellon University sebagai
proyek riset di tahun 1994.
Segera setelah itu, banyak mesin
pencari yang bermunculan dan bersaing memperebutkan popularitas. Termasuk di
antaranya adalah WebCrawler, Hotbot, Excite, Infoseek, Inktomi, dan AltaVista. Masing-masing
bersaing dengan menambahkan layakan-layanan tambahan seperti yang dilakukan
oleh Yahoo.
Tahun 2002 Yahoo! mengakuisisi Inktomi, setahun kemudian
mengakuisisi AlltheWeb dan Altavista kemudian meluncurkan
mesin pencari sendiri yang didasarkan pada teknologi gabungan dari mesin-mesin
pencari yang telah diakuisisinya serta memberikan layanan yang mengutamakan
pencarian Web daripada layanan-layanan lainnya.
Di bulan desember 2003, Orase menerbitkan versi pertama dari
teknologi pencari waktu-riilnya. Mesin ini memiliki banyak fungsi baru dan tingkat
unjuk kerja yang jauh lebih baik.
Mesin pencari juga dikenal sebagai
target investasi internet yang terjadi pada akhir tahun 1990-an. Beberapa
perusahaan mesin pencari yang masuk ke dalam pasar saham diketahui mencatat
keuntungan besar. Sebagian lagi sama sekali menonaktifkan layanan mesin
pencari, dan hanya memasarkannya pada edisi-edisi enterprise saja, contoh Northern
Light sebelumnya diketahui merupakan salah satu perintis layanan mesin
pencari di internet.
C. Manfaat
- mesin pencari merupakan tempat
kebanyakan orang mencari sesuatu via internet. Menurut survei hampir 90%
pengguna internet memakai mesin pencari untuk mencari lokasi tertentu di
internet. dan di antara mesin pencari yang ada, google merupakan mesin
pencari yang paling banyak digunakan.
- Sebagian besar pengguna mesin
pencari tidak pernah melewatkan dua halaman pertama dari mesin pencari.
- Sebagian besar (hampir 70%)
pengguna mesin pencari tidak pernah klik pada hasil pencarian sponsor.
Dengan demikian, hasil pencarian yang organik (secara alami) akan membuat
suatu website
memperoleh posisi strategis dalam dunia internet.
- Di negara-negara maju, porsi
penjualan yang dilakukan melalui internet
sudah hampir mencapai 20% dari keseluruhan transaksi tahunan.
- Sebuah informasi yang mudah di
akses oleh semua orang baik dalam maupun luar negeri.
D. Cara kerja search engine
Mesin pencari web bekerja dengan
cara menyimpan informasi tentang banyak halaman web,
yang diambil langsung dari WWW. Halaman-halaman ini diambil dengan web crawler — browser web otomatis yang mengikuti
setiap pranala yang dilihatnya. Isi setiap halaman lalu dianalisis untuk
menentukan cara indeks-nya (misalnya, kata-kata diambil dari judul, subjudul,
atau field khusus yang disebut meta tag). Data tentang halaman
web disimpan dalam sebuah database
indeks untuk digunakan dalam pencarian selanjutnya. Sebagian mesin pencari,
seperti Google,
menyimpan seluruh atau sebagian halaman sumber (yang
disebut cache)
maupun informasi tentang halaman web itu sendiri.
Selain halaman web,
Mesin pencari juga menyimpan dan memberikan informasi hasil pencarian berupa
pranala yang merujuk pada file, seperti file audio, file video, gambar, foto dan sebagainya,
serta informasi
tentang seseorang, suatu produk, layanan, dan informasi beragam lainnya yang
semakin terus berkembang sesuai dengan perkembangan teknologi informasi.
Ketika seseorang mengunjungi mesin
pencari dan memasukkan query, biasanya
dengan memasukkan kata kunci, mesin mencari indeks dan memberikan daftar
halaman web yang paling sesuai dengan kriterianya, biasanya disertai ringkasan
singkat mengenai judul dokumen dan kadang-kadang sebagian teksnya.
Ada jenis mesin pencari lain: mesin
pencari real-time, seperti Orase. Mesin seperti ini tidak menggunakan
indeks. Informasi yang diperlukan mesin tersebut hanya dikumpulkan jika ada
pencarian baru. Jika dibandingkan dengan ontro berbasis indeks yang digunakan
mesin-mesin seperti Google, ontro real-time
ini unggul dalam beberapa hal: informasi selalu mutakhir, (ontro) tak ada
pranala mati, dan lebih sedikit sumber daya ontro yang diperlukan. (Google
menggunakan ontro 100.000 komputer, Orase hanya satu.) Tetapi, ada juga
kelemahannya: pencarian lebih lama rampungnya.
Manfaat mesin pencari bergantung
pada relevansi hasil-hasil yang
diberikannya. Meskipun mungkin ada jutaan halaman web yang mengandung suatu
kata atau frasa, sebagian halaman mungkin lebih relevan, ontrov, atau
autoritatif daripada yang lain. Kebanyakan mesin pencari menggunakan berbagai
metode untuk menentukan peringkat hasil pencarian agar
mampu memberikan hasil “terbaik” lebih dahulu. Cara mesin menentukan halaman
mana yang paling sesuai, dan urutan halaman-halaman itu diperlihatkan, sangat
bervariasi. Metode-metode nya juga berubah seiring waktu dengan berubahnya
penggunaan internet dan berevolusinya teknik-teknik baru.
Sebagian besar mesin pencari web
adalah usaha komersial yang didukung pemasukan iklan dan karenanya
sebagian menjalankan praktik ontroversial, yaitu membolehkan pengiklan membayar
agar halaman mereka diberi peringkat lebih tinggi dalam hasil pencarian.
E. Pentingnya optimasi search engine
Salah satu alasan yang menyebabkan
diperlukan mesin pencari optimasi adalah karena ada banyak World Wide Web
Wanderer yang sudah ada, dan akan terus bertambah di setiap bulannya.
Sebagai Contoh, seseorang mempunyai World Wide Web
Wanderer untuk menjual produk pertanian maka di Indonesia akan ada puluhan
atau ratusan Website sejenis. Sementara itu, jika ingin melihat segmen dunia
maka akan lebih banyak lagi jumlahnya. Untuk itu, dengan menempatkan posisi di
tingkat ada dalam hasil pencarian maka akan membuat website pengguna tersebut
ibarat toko strategis yang terletak di tepi jalan besar. Dengan SEO yang bagus
maka kemungkinan website anda dikunjungi oleh orang lain akan lebih besar.
Dengan Kaidah SEO yang bagus,
website menggunakan lebih jelas atau keluhan sehingga akan lebih diperhatikan
oleh mesin pencari. itulah inti dari SEO, yaitu untuk membuat website anda
diperhatikan oleh mesin pencari.
F. Proses pencarian
Melakukan pencarian dokumen yang
dimuat pada suatu situs bisa begitu mudah dan kelihatannya mungkin sulit juga. Apalagi
mengignat begitu menyebarnya informasi dimana-mana, bahkan University of
Calofornia menyebutkan saat ini telah terdapat lebih dari 50 milyar halaman web
di internet,
meskipun tidak ada ada satupun yang benar-benar tahu jumlah persisnya.
Kesulitan yang mungkin terjadi
adalah karena WWW tersebut tidak terdata dalam bentuk yang terstandardisasi
isinya. Tidak sama halnya dengan ompute yang ada di perpustakaan, yang memiliki
standardisasi secara mendunia berdasarkan subjek dari judul buku, meskipun
jumlahnya juga tidak sedikit.
Dalam pencarian di web,
pengguna selalu memperkirakan kata apa yang di kira-kira terdapat pada halaman
yang ingin anda temukan. Atau kira-kira apa subjek yang dipilih oleh seseorang
untuk mengelolah halaman situs yang mereka kelola, ompu apa saja kira-kira yang
di bahas.
Jika pengguna melakukan apa yang
dikenal dengan pencarian pada halaman web, sebenarnya tidaklah melakukan
pencarian. Tidak mungkin melakukan pencarian di WWW secara langsung.
Pada web
benar-benar terdiri dari banyak sekali halaman web yang ingin disimpan dari
berbagai server diseluruh dunia. Komputer pengguna tidak langsung melakukan pencarian kepada
seluruh omputer tersebut secara langsung.
Apa yang mungkin pengguna lakukan
hanyalah melalui omputer untuk mengakses satu atau lebih perantara yang disebut
dengan alat bantu pencarian yang ada saat ini. Melakukan pencarian pada alat
bantu itu tadi ke database yang dimiliki. Data base tersebut mengkoleksi
situs-situs yang ditemukan dan simpan.
Alat bantu pencarian ini menyediakan
hasil pencarian dalam bentuk hypertext
link dengan URL menuju halaman lainnya. Ketika anda klik link ini, dan
menuju ke alamat tersebut maka dokumen, gambar, suara dan banyak lagi bentuk
lainnya yang ada pada server
tersebut disediakan, sesuai dengan informasi yang terdapat di dalamnya. Layanan
ini bisa menjangkau ke manapun di seluruh dunia.
Tidak mungkin seseorang untuk
melakukan pencarian ke seluruh omputer yang terhubung internet ini, atau bahkan
alat bantu pencarian yang mengklaim bahwa melakukannya, tidak benar.
G. Kategori search engine
Saat ini, tiga bentuk dari alat
bantu pencarian ini. Menggunakan strategi yang berbeda untuk memanfaatkan
kemampuan potensial dari masing-masing nya, yaitu
1.Mesin pencari dan mesin pencari-meta
Karakteristik:
- Menyimpan data dalam bentuk teks
penuh pada halaman yang terpilih,
- Pencarian berdasarkan kata kunci,
mereka mencoba mencocokkan dengan tepat kata kunci tersebut dengan teks
yang ada dalam dokumen,
- Tidak perlu dilakukan browsing, dan
tidak ada subjek dari kategori,
- Database dijaring dan dikumpulkan
oleh spidr, yaitu komputer yang memiliki program robot, dengan kemampuan
seminimal mungkin dari pandangan atau sentuhan manusia,
- Ukuran search engine:dari skala
kecil hingga mampu menyimpan sangat banyak (sekitar hingga 20 milyar
halaman web).
- Meta-search engine dengan cepat
melakukan pencarian ke dalam beberapa data base dari berbagai search
engine dalam satu kali permintaan. hasilnya adalah daftar yang hasilnya
dan penggabungan hasil pencarian dari beberapa mesin pencari yang mereka
libatkan. Contoh : Search engine: Google,
Yahoo Search,
Ask.com. Meta-Search : Dogpile, Copernic, dan lainnya.
2.Subject Directories
- Karakteristik :
- Seleksi dari situs yang ada
merupakan seleksi langsung yang dilakukan oleh manusia, kadang kala para
ahli untuk subjek tertentu,
- Sering dengan hati-hati dievaluasi
dan menjaga keterbaruan informasi yang mereka miliki, namun tidak selalu,
kadang-kadang tidak, terutama untuk mereka yang telah memiliki data yang
banyak dan bersifat general,
- Biasanya dikelola dalam bentuk
subjek dan direktori yang tersusun secara hirarki,
- Sering dilengkapi dengan catatan
mengenai deskripsinya ( tidak untuk Yahoo),
- Subjek dapat di-browse subjek dan kategorinya
atau melakukan pencarian berdasarkan kata-kata tertentu,
- Dokumen yang tidak penuh teks.
pencarian diminta lebih spesifik dibandingkan dengan pencarian melalui
mesin pencari, karena kata kunci tidak bisa dibandingkan dengan isi dari
halaman suatu situs, melainkan hanya pada subjek, kategori-kategori, dan
deskripsi.
- Terdapat ribuan atau bahkan lebih
subjek direktori dalam praktek dan kenyataannya apa saja yang dipikirkan
di sana.
3.Specialized Databade (Invisible Web)
Karakteristik :
- Merupakan web
yang menyediakan akses melalui suatu kotak pencarian ke dalam isi database
pada sebuah komputer di suatu tempat,
- Dapat saja berubah berbagai topik,
dapat pula juga hal yang komersial, pekerjaan yang spesifik, pemerintahan,
dll
- Juga terdiri dari banyak halaman
yang menghasilkan hasil pencarian dari katalog direktori online.
H. Prinsip umum dari search engine
Sistem kinerja
mesin ini ada beberapa hal yang perlu di perhatikan terutama keterkaitannya
dengan masalah arsitekrut dan mekanismenya.
1.Spider
Merupakan
program yang men-download halaman-halaman yang mereka temukan, mirip dengan
browser. Perbedannya adalah bahwa browser menapilkan secara langsung informasi
yang ada (baik tekas, gambar, dll). Untuk kepentingan manusia yang
menggunakannya pada saat itu, sedangkan spider tidak melakukan untuk
menampulkan dalam bentuk yang terlihat seperti itu, karena kepentingannya
adalah untuk mesin, bukan untuk manusia, spider pun dijalankan oleh mesin
secara otomatis. Kepentingannya adalah untuk mengambil halaman-halaman yang
dikunjunginya untuk disimpan kedalam database yang dimiliki oleh search engine.
2.Crawler
Merupakan
program yang dimiliki search engine untuk melacak dan menemukan link yang
terdapat dari setiap halaman yang ditemuinya. Tugasnya adalah untuk menentukan
spoder harus pergi kemana dan mengevaluasi link berdasarkan alamat yang
ditentukan dari awal. Crawler mengikuti link dan mencoba menemukan dokumen yang
belum dikenal oleh search engine.
3.Indexer
Komponen ini
melakukan aktifitas untuk menguraikan masing-masing halaman dan meneliti
berbagai unsur, seperti teks, headers, struktur atau fitur dari gaya penulisan,
tag HTML khusus,
dll.
4.Database
Merupakan
tempat standar untuk menyimpan data-data dari halaman yang telah dikunjungi,
di-download dan sudah dianalisis. kadang kala disebut juga dengan index dari
suatu search engine.
5.Result Engine
Mesin yang
melakukan penggolongan dan penentuan peringkat dari hasil pencarian pada search
engine. Mesin ini menentukan halaman mana yang menemui kriteria terbaik dari
hasil pencarian berdasarkan permintaan penggunanya, dan bagaimana bentuk
penampulan yang akan ditampilkan.
Proses ini
dilaksanakan berdasarkan algoritma perangkingan yang dimiliki oleh search engine
tersebut, mengikuti kaidah perangkingan hakaman yang dipergunakan oleh mereka
adalah hak mereka, para peneliti mempelajari sifat-sifat yang mereka gunakan,
terutama untuk meningkatkan pencarian yang dihasilkan oleh serach engine
tersebut.
6.Web Server
Merupakan
komponen yang melayani permintaan dan memberikan respon balik dari permintaan
tersebut. Web Server ini biasanya menghasilkan informasi
atau dokumen dalam format [[[HTML]]. Pada halaman tersebut tersedia layanan
untuk mengisikan kata kunci pencarian yang diinginkan oleh usernya. Web Server
ini juga bertanggung jawab dalam menyampaikan hasil pencarian yang dikirimkan
kepada komputer yang meminta informasi.
I. Algoritma search engine
Secara
umum, algoritma pencarian adalah sebuah prosedure yang bekerja dalam satu arah.
Cara kerjanya sebagai berikut, pertama ada masalah, kemudian mencari berbagai
solusi yang mempunyai kemungkinan sebagai pemecahannya, lalu keluar dengan
hasil akhir yaitu sebuah solusi.
Dengan
metode atau prosedure seperti itulah sebuah search engine bekerja. Pertama dia
akan meminta masukan atau sebuah permasalahan. Apa permasalah itu? Yaitu
kata/kalimat yang ingin kita cari di internet. Setelah kita memasukkan kata
kedalam kotak yang disediakan, kemudian mengklik tombol search, maka prosedure
kedua dijalankan oleh search engine.
Pada tahap
kedua inilah algoritma pencarian mulai bekerja. Melalui algoritma ini search
engine akan berusaha mengumpulkan, dan mengurutkan berbagai solusi yang
menurutnya mempunyai keterkaitan dengan kata/kalimat yang dicari. Dan akhirnya
keluar dengan hasil akhir yaitu menampilkan berbagai halaman web yang menurut
search engine tadi berhubungan dengan kata/kalimat yang dicari.
Ada
berbagai macam algoritma pencarian yang bisa digunakan oleh search engine untuk
memecahkan masalah. Masing-masing search engine menggunakan metodanya sendiri.
Itulah yang menyebabkan mengapa saat kita mencari menggunakan kata/kalimat yang
sama namun di search engine yang berbeda, akan mendapatkan hasil yang berbeda
pula.
Berikut ini beberapa macam algortima pencarian yang
digunakan oleh search engine:
1. List
Search
Algoritma
ini bekerja dengan cara mencari secara berurutan. Kita bisa membayangkannya
seperti saat kita ingin mencari seseorang dalam sebuah antrian. Maka kita
mencarinya dengan cara memeriksa satu persatu, dari awal antrian hingga kita
menemukan orang yang ingin kita cari.
Cara atau
algoritma seperti ini biasanya digunakan saat kita ingin mencari dengan
menggunakan satu faktor atau satu kunci saja sebagai penentu. Untuk antrian
yang pendek, cara ini mungkin cukup efektif dan efisien. Tapi untuk mencari
sebuah kata dari milyaran web page yang ada di internet, maka akan membutuhkan waktu yang sangat lama.
2. Tree
Search
Bayangkan
sebuah pohon! Bayangkan mulai dari akar, batang, cabang, kemudian
ranting-rantingnya. Begitulah cara kerja dari algoritma ini. Algoritma ini akan
bekerja dengan cara mencarinya dari yang paling mendekati hingga ke yang paling
tidak mendekati. Atau bisa juga dikatakan dari yang paling umum hingga ke yang
paling spesifik, atau sebaliknya.
Algoritma
ini mirip dengan cara yang digunakan orang untuk mengatur internet. Seperti
yang kita tahu, setiap situs yang ada di internet itu mempunyai keterkaitan
antara satu dengan yang lainnya. Kita bisa menelusuri keterkaitan ini dengan
cara memulai dari tingkat yang paling kecil dulu, kemudian ke tingkat yang
paling besar, atau sebaliknya.
Tree
searches adalah cara yang ampuh digunakan untuk melakukan pencarian di
internet, akan tetapi cara ini tidak selalu memberikan hasil yang memuaskan.
3. SQL
Search
Diambil
dari kata sequel. Satu kelemahan saat melakukan pencarian menggunakan metode
Tree Search yaitu pencarian dilakukan dengan cara dari point ke point, atau dari satu titik ke
titik. Itu artinya data harus dicari secara hirarki, dari besar ke kecil atau
sebaliknya. Dan kelemahan ini bisa teratasi dengan menggunakan SQL search.
4. Informed
Search
Algoritma
informed search bekerja dengan cara mencari solusi yang spesifik atau khusus
dari sebuah dataset yang bercabang-cabang (tree dataset). Sesuai dengan
namanya, algoritma ini tidak selalu cocok digunakan untuk melakukan pencarian
di internet. Karena algoritma ini cuma cocok digunakan untuk pemecahan
masalah-masalah yang spesifik atau khusus saja. Sedangkan kita seringkali ingin
mencari pemecahan untuk masalah-masalah yang bersifat umum atau luas.
5. Adversarial
Search
Adversarial
search bekerja dengan cara mencari berbagai kemungkinan solusi atas sebuah
masalah. Ini seperti saat kita melakukan permainan rolex atau gambling, dimana
semua kemungkinan akan kita coba. Algoritma ini sulit digunakan untuk melakukan
pencarian di internet, sebab berapa banyak kemungkinan yang akan di dapat untuk
mencari sebuah kata di internet? Nyaris tak terhingga.
6. Constraint
Satisfaction Search
Saat kita
mencari suatu kata/kalimat di internet, maka algoritma constraint satisfaction
search ini sepertinya adalah metode yang paling mendekati atau sesuai dengan
keinginan mu. Algoritma pencarian jenis ini, akan mencari solusi dengan cara
memberikan berbagai alternatif pilihan. Algoritma ini akan mencari dengan
berbagai cara, dan tidak harus dengan cara yang berurutan.
Itu tadi
beberapa algoritma yang diperlukan saat sebuah search engine akan dibuat. Dan
seringkali lebih dari satu algoritma yang digunakan oleh sebuah search engine.
Dan seringkali juga, search engine tertentu akan membuat algoritma yang baru.
J. Search engine populer
Terdapat ratusan bahkan ribuan mesin
pencari yang ada di internet, dan kapasitas mesin tersebut akan selalu tumbuh
dari waktu ke waktu. Dari sebanyak itu, hanya sebagian kecil yang berpengaruh
besar dalam lalulintas untuk pengantar pengunjungnya ke situs tersebut. untuk
itu, harus pintar dalam memilih mereka yang tepat terutama dalam efisiensi dan
efektifitas waktu yang anda miliki dalam mencapai sasaran yang diinginkan,
karena situs yang tidak terlalu populer belum tentu akan berpengaruh besar
terhadap pertumbuhanke situs yang dikelola. Apalagi juka pendaftaran
situs-situs penyedia layanan pencarian tersebut dilakukan satu persatu, akan
membuang waktu. Cara mudahnya, lebih baik menggunakan software
pendaftar ke mesin pencari yang banyak beredar di internet, sehingga proses
pendaftaran bisa dilakukan secara otomatis melalui software
tersebut.
Berikut ini
adalah beberapa mesin pencari:
- Google ( http://www.google.com/
)
- Yahoo ( http://www.yahoo.com/
)
- Open Directory (http://www.dmoz.com/
)
- MSN ( http://www.msn.com/
)
- Live ( http://www.live.com
)
- Altavista ( http://www.altavista.com
)
- AOL ( http://www.aol.com
)
- Altheweb ( http://www.althweb.com
)
- Baidu ( http://www.baidu.com
)
- Looksmart ( http://www.looksmart.com
)
- Solusee ( http://www.solusee.com
)