Pages

Friday 3 May 2013

Jenis Jenis Kabel Jaringan

Jenis Jenis Kabel Jaringan



     1.    Kabel koaksial



Kabel koaksial terdiri atas dua kabel yang diselubungi oleh dua tingkat isolasi. Tingkat isolasi pertama adalah yang paling dekat dengan kawat konduktor tembaga. Tingkat pertama ini dilindungi oleh serabut konduktor yang menutup bagian atasnya yang melindungi dari pengaruh elektromagnetik. Sedangkan bagian inti yang digunakan untuk transfer data adalah bagian tengahnya yang selanjutnya ditutup atau dilindungi dengan plastik sebagai pelindung akhir untuk menghindari dari goresan kabel.Beberapa jenis kabel koaksial lebih besar dari pada yang lain. Makin besar kabel, makin besar kapasitas datanya, lebih jauh jarak jangkauannya dan tidak begitu sensitif terhadap interferensi listrik.

2.    Kabel Unshielded Twisted Pair (UTP)


Kabel twisted pair terjadi dari dua kabel yang diputar enam kali per-inchi untuk memberikan perlindungan terhadap interferensi listrik ditambah dengan impedensi, atau tahanan listrik yang konsisten. Nama yang umum digunakan untuk kawat ini adalah IBM jenis/kategori 3. Secara singkat kabel UTP adalah murah dan mudah dipasang, dan bisa bekerja untuk jaringan skala kecil.

3.    Kabel Shielded Twisted Pair (STP)




Kabel STP sama dengan kabel UTP, tetapi kawatnya lebih besar dan diselubungi dengan lapisan pelindung isolasi untuk mencegah gangguan interferensi. Jenis kabel STP yang paling umum digunakan pada LAN ialah IBM jenis/kategori 1.

4.    Kabel Serat Optik (Fiber Optic)
 
 

Kabel serat optik mengirim data sebagai pulsa cahaya melalui kabel serat optik. Kabel serat optik mempunyai keuntungan yang menonjol dibandingkan dengan semua pilihan kabel tembaga. Kabel serat optik memberikan kecepatan transmisi data tercepat dan lebih reliable, karena jarang terjadi kehilangan data yang disebabkan oleh interferensi listrik. Kabel serat optik juga sangat tipis dan fleksibel sehingga lebih mudah dipindahkan dari pada kabel tembaga yang berat.

Search Engine



 Search Engine

A. Pengertian
            Search engine (mesin pencari) adalah program komputer yang dirancang untuk melakukan pencarian atas berkas-berkas yang tersimpan dalam layanan www, ftp, publikasi milis, ataupun news group dalam sebuah ataupun sejumlah komputer peladen dalam suatu jaringan. Hasil pencarian umumnya ditampilkan dalam bentuk daftar yang seringkali diurutkan menurut tingkat akurasi ataupun rasio pengunjung atas suatu berkas yang disebut sebagai hits. Informasi yang menjadi target pencarian bisa terdapat dalam berbagai macam jenis berkas seperti halaman situs web, gambar, ataupun jenis-jenis berkas lainnya. Beberapa mesin pencari juga diketahui melakukan pengumpulan informasi atas data yang tersimpan dalam suatu basisdata ataupun direktori web.
            Sebagian besar mesin pencari dijalankan oleh perusahaan swasta yang menggunakan algoritma kepemilikan dan basisdata tertutup, di antaranya yang paling populer adalah Google (MSN Search dan Yahoo!). Telah ada beberapa upaya menciptakan mesin pencari dengan sumber terbuka (open source), contohnya adalah Htdig, Nutch, Egothor dan OpenFTS
B. Sejarah
Saat awal perkembangan internet, Tim Berners-Lee membuat sebuah situs web yang berisikan daftar situs web yang ada di internet melalui peladen web CERN. Sejarah yang mencatat sejak tahun 1992 masih ada hingga kini.[2] Dengan semakin banyaknya situs web yang aktif membuat daftar ini tidak lagi memungkinkan untuk dikelola oleh manusia. Utilitas pencari yang pertama kali digunakan untuk melakukan pencarian di internet adalah Archie yang berasal dari kata "archive" tanpa menggunakan huruf "v".[3] Archie dibuat tahun 1990 oleh Alan Emtage, Bill Heelan dan J. Peter Deutsch, saat itu adalah mahasiswa ilmu komputer Universitas McGill, Amerika Serikat. Cara kerja program tersebut adalah mengunduh daftar direktori serta berkas yang terdapat pada layanan ftp publik (anonim) kemudian memuatnya ke dalam basisdata yang memungkinkan pencarian.
            Mesin pencari lainnya seperti Aliweb, muncul di 1993 dan masih berjalan hingga saat ini. Salah satu mesin pencari pertama yang sekarang berkembang menjadi usaha komersial yang cukup besar adalah Lycos, yang dimulai di Carnegie Mellon University sebagai proyek riset di tahun 1994.
            Segera setelah itu, banyak mesin pencari yang bermunculan dan bersaing memperebutkan popularitas. Termasuk di antaranya adalah WebCrawler, Hotbot, Excite, Infoseek, Inktomi, dan AltaVista. Masing-masing bersaing dengan menambahkan layakan-layanan tambahan seperti yang dilakukan oleh Yahoo.
            Tahun 2002 Yahoo! mengakuisisi Inktomi, setahun kemudian mengakuisisi AlltheWeb dan Altavista kemudian meluncurkan mesin pencari sendiri yang didasarkan pada teknologi gabungan dari mesin-mesin pencari yang telah diakuisisinya serta memberikan layanan yang mengutamakan pencarian Web daripada layanan-layanan lainnya.
            Di bulan desember 2003, Orase menerbitkan versi pertama dari teknologi pencari waktu-riilnya. Mesin ini memiliki banyak fungsi baru dan tingkat unjuk kerja yang jauh lebih baik.
            Mesin pencari juga dikenal sebagai target investasi internet yang terjadi pada akhir tahun 1990-an. Beberapa perusahaan mesin pencari yang masuk ke dalam pasar saham diketahui mencatat keuntungan besar. Sebagian lagi sama sekali menonaktifkan layanan mesin pencari, dan hanya memasarkannya pada edisi-edisi enterprise saja, contoh Northern Light sebelumnya diketahui merupakan salah satu perintis layanan mesin pencari di internet.
            Buku Osmar R. Zaïane From Resource Discovery to Knowledge Discovery on the Internet menjelaskan secara rinci sejarah teknologi mesin pencari sebelum munculnya Google. Mesin-mesin pencari lainnya mencakup a9.com, AlltheWeb, Ask Jeeves, Clusty, Gigablast, Teoma, Wisenut, GoHook, Kartoo, dan Vivisimo.
C. Manfaat
  • mesin pencari merupakan tempat kebanyakan orang mencari sesuatu via internet. Menurut survei hampir 90% pengguna internet memakai mesin pencari untuk mencari lokasi tertentu di internet. dan di antara mesin pencari yang ada, google merupakan mesin pencari yang paling banyak digunakan.
  • Sebagian besar pengguna mesin pencari tidak pernah melewatkan dua halaman pertama dari mesin pencari.
  • Sebagian besar (hampir 70%) pengguna mesin pencari tidak pernah klik pada hasil pencarian sponsor. Dengan demikian, hasil pencarian yang organik (secara alami) akan membuat suatu website memperoleh posisi strategis dalam dunia internet.
  • Di negara-negara maju, porsi penjualan yang dilakukan melalui internet sudah hampir mencapai 20% dari keseluruhan transaksi tahunan.
  • Sebuah informasi yang mudah di akses oleh semua orang baik dalam maupun luar negeri.

D. Cara kerja search engine

            Mesin pencari web bekerja dengan cara menyimpan informasi tentang banyak halaman web, yang diambil langsung dari WWW. Halaman-halaman ini diambil dengan web crawlerbrowser web otomatis yang mengikuti setiap pranala yang dilihatnya. Isi setiap halaman lalu dianalisis untuk menentukan cara indeks-nya (misalnya, kata-kata diambil dari judul, subjudul, atau field khusus yang disebut meta tag). Data tentang halaman web disimpan dalam sebuah database indeks untuk digunakan dalam pencarian selanjutnya. Sebagian mesin pencari, seperti Google, menyimpan seluruh atau sebagian halaman sumber (yang disebut cache) maupun informasi tentang halaman web itu sendiri.
            Selain halaman web, Mesin pencari juga menyimpan dan memberikan informasi hasil pencarian berupa pranala yang merujuk pada file, seperti file audio, file video, gambar, foto dan sebagainya, serta informasi tentang seseorang, suatu produk, layanan, dan informasi beragam lainnya yang semakin terus berkembang sesuai dengan perkembangan teknologi informasi.
            Ketika seseorang mengunjungi mesin pencari dan memasukkan query, biasanya dengan memasukkan kata kunci, mesin mencari indeks dan memberikan daftar halaman web yang paling sesuai dengan kriterianya, biasanya disertai ringkasan singkat mengenai judul dokumen dan kadang-kadang sebagian teksnya.
            Ada jenis mesin pencari lain: mesin pencari real-time, seperti Orase. Mesin seperti ini tidak menggunakan indeks. Informasi yang diperlukan mesin tersebut hanya dikumpulkan jika ada pencarian baru. Jika dibandingkan dengan ontro berbasis indeks yang digunakan mesin-mesin seperti Google, ontro real-time ini unggul dalam beberapa hal: informasi selalu mutakhir, (ontro) tak ada pranala mati, dan lebih sedikit sumber daya ontro yang diperlukan. (Google menggunakan ontro 100.000 komputer, Orase hanya satu.) Tetapi, ada juga kelemahannya: pencarian lebih lama rampungnya.
            Manfaat mesin pencari bergantung pada relevansi hasil-hasil yang diberikannya. Meskipun mungkin ada jutaan halaman web yang mengandung suatu kata atau frasa, sebagian halaman mungkin lebih relevan, ontrov, atau autoritatif daripada yang lain. Kebanyakan mesin pencari menggunakan berbagai metode untuk menentukan peringkat hasil pencarian agar mampu memberikan hasil “terbaik” lebih dahulu. Cara mesin menentukan halaman mana yang paling sesuai, dan urutan halaman-halaman itu diperlihatkan, sangat bervariasi. Metode-metode nya juga berubah seiring waktu dengan berubahnya penggunaan internet dan berevolusinya teknik-teknik baru.
            Sebagian besar mesin pencari web adalah usaha komersial yang didukung pemasukan iklan dan karenanya sebagian menjalankan praktik ontroversial, yaitu membolehkan pengiklan membayar agar halaman mereka diberi peringkat lebih tinggi dalam hasil pencarian.

E. Pentingnya optimasi search engine

            Salah satu alasan yang menyebabkan diperlukan mesin pencari optimasi adalah karena ada banyak World Wide Web Wanderer yang sudah ada, dan akan terus bertambah di setiap bulannya.
            Sebagai Contoh, seseorang mempunyai World Wide Web Wanderer untuk menjual produk pertanian maka di Indonesia akan ada puluhan atau ratusan Website sejenis. Sementara itu, jika ingin melihat segmen dunia maka akan lebih banyak lagi jumlahnya. Untuk itu, dengan menempatkan posisi di tingkat ada dalam hasil pencarian maka akan membuat website pengguna tersebut ibarat toko strategis yang terletak di tepi jalan besar. Dengan SEO yang bagus maka kemungkinan website anda dikunjungi oleh orang lain akan lebih besar.
            Dengan Kaidah SEO yang bagus, website menggunakan lebih jelas atau keluhan sehingga akan lebih diperhatikan oleh mesin pencari. itulah inti dari SEO, yaitu untuk membuat website anda diperhatikan oleh mesin pencari.

F. Proses pencarian

            Melakukan pencarian dokumen yang dimuat pada suatu situs bisa begitu mudah dan kelihatannya mungkin sulit juga. Apalagi mengignat begitu menyebarnya informasi dimana-mana, bahkan University of Calofornia menyebutkan saat ini telah terdapat lebih dari 50 milyar halaman web di internet, meskipun tidak ada ada satupun yang benar-benar tahu jumlah persisnya.
            Kesulitan yang mungkin terjadi adalah karena WWW tersebut tidak terdata dalam bentuk yang terstandardisasi isinya. Tidak sama halnya dengan ompute yang ada di perpustakaan, yang memiliki standardisasi secara mendunia berdasarkan subjek dari judul buku, meskipun jumlahnya juga tidak sedikit.
            Dalam pencarian di web, pengguna selalu memperkirakan kata apa yang di kira-kira terdapat pada halaman yang ingin anda temukan. Atau kira-kira apa subjek yang dipilih oleh seseorang untuk mengelolah halaman situs yang mereka kelola, ompu apa saja kira-kira yang di bahas.
            Jika pengguna melakukan apa yang dikenal dengan pencarian pada halaman web, sebenarnya tidaklah melakukan pencarian. Tidak mungkin melakukan pencarian di WWW secara langsung.
            Pada web benar-benar terdiri dari banyak sekali halaman web yang ingin disimpan dari berbagai server diseluruh dunia. Komputer pengguna tidak langsung melakukan pencarian kepada seluruh omputer tersebut secara langsung.
            Apa yang mungkin pengguna lakukan hanyalah melalui omputer untuk mengakses satu atau lebih perantara yang disebut dengan alat bantu pencarian yang ada saat ini. Melakukan pencarian pada alat bantu itu tadi ke database yang dimiliki. Data base tersebut mengkoleksi situs-situs yang ditemukan dan simpan.
            Alat bantu pencarian ini menyediakan hasil pencarian dalam bentuk hypertext link dengan URL menuju halaman lainnya. Ketika anda klik link ini, dan menuju ke alamat tersebut maka dokumen, gambar, suara dan banyak lagi bentuk lainnya yang ada pada server tersebut disediakan, sesuai dengan informasi yang terdapat di dalamnya. Layanan ini bisa menjangkau ke manapun di seluruh dunia.
            Tidak mungkin seseorang untuk melakukan pencarian ke seluruh omputer yang terhubung internet ini, atau bahkan alat bantu pencarian yang mengklaim bahwa melakukannya, tidak benar.

G. Kategori search engine

            Saat ini, tiga bentuk dari alat bantu pencarian ini. Menggunakan strategi yang berbeda untuk memanfaatkan kemampuan potensial dari masing-masing nya, yaitu

1.Mesin pencari dan mesin pencari-meta

Karakteristik:
  1. Menyimpan data dalam bentuk teks penuh pada halaman yang terpilih,
  2. Pencarian berdasarkan kata kunci, mereka mencoba mencocokkan dengan tepat kata kunci tersebut dengan teks yang ada dalam dokumen,
  3. Tidak perlu dilakukan browsing, dan tidak ada subjek dari kategori,
  4. Database dijaring dan dikumpulkan oleh spidr, yaitu komputer yang memiliki program robot, dengan kemampuan seminimal mungkin dari pandangan atau sentuhan manusia,
  5. Ukuran search engine:dari skala kecil hingga mampu menyimpan sangat banyak (sekitar hingga 20 milyar halaman web).
  6. Meta-search engine dengan cepat melakukan pencarian ke dalam beberapa data base dari berbagai search engine dalam satu kali permintaan. hasilnya adalah daftar yang hasilnya dan penggabungan hasil pencarian dari beberapa mesin pencari yang mereka libatkan. Contoh : Search engine: Google, Yahoo Search, Ask.com. Meta-Search  : Dogpile, Copernic, dan lainnya.

2.Subject Directories

  1. Karakteristik :
  2. Seleksi dari situs yang ada merupakan seleksi langsung yang dilakukan oleh manusia, kadang kala para ahli untuk subjek tertentu,
  3. Sering dengan hati-hati dievaluasi dan menjaga keterbaruan informasi yang mereka miliki, namun tidak selalu, kadang-kadang tidak, terutama untuk mereka yang telah memiliki data yang banyak dan bersifat general,
  4. Biasanya dikelola dalam bentuk subjek dan direktori yang tersusun secara hirarki,
  5. Sering dilengkapi dengan catatan mengenai deskripsinya ( tidak untuk Yahoo),
  6. Subjek dapat di-browse subjek dan kategorinya atau melakukan pencarian berdasarkan kata-kata tertentu,
  7. Dokumen yang tidak penuh teks. pencarian diminta lebih spesifik dibandingkan dengan pencarian melalui mesin pencari, karena kata kunci tidak bisa dibandingkan dengan isi dari halaman suatu situs, melainkan hanya pada subjek, kategori-kategori, dan deskripsi.
  8. Terdapat ribuan atau bahkan lebih subjek direktori dalam praktek dan kenyataannya apa saja yang dipikirkan di sana.

3.Specialized Databade (Invisible Web)

Karakteristik :
  1. Merupakan web yang menyediakan akses melalui suatu kotak pencarian ke dalam isi database pada sebuah komputer di suatu tempat,
  2. Dapat saja berubah berbagai topik, dapat pula juga hal yang komersial, pekerjaan yang spesifik, pemerintahan, dll
  3. Juga terdiri dari banyak halaman yang menghasilkan hasil pencarian dari katalog direktori online.

H. Prinsip umum dari search engine

Sistem kinerja mesin ini ada beberapa hal yang perlu di perhatikan terutama keterkaitannya dengan masalah arsitekrut dan mekanismenya.

1.Spider

Merupakan program yang men-download halaman-halaman yang mereka temukan, mirip dengan browser. Perbedannya adalah bahwa browser menapilkan secara langsung informasi yang ada (baik tekas, gambar, dll). Untuk kepentingan manusia yang menggunakannya pada saat itu, sedangkan spider tidak melakukan untuk menampulkan dalam bentuk yang terlihat seperti itu, karena kepentingannya adalah untuk mesin, bukan untuk manusia, spider pun dijalankan oleh mesin secara otomatis. Kepentingannya adalah untuk mengambil halaman-halaman yang dikunjunginya untuk disimpan kedalam database yang dimiliki oleh search engine.

2.Crawler

Merupakan program yang dimiliki search engine untuk melacak dan menemukan link yang terdapat dari setiap halaman yang ditemuinya. Tugasnya adalah untuk menentukan spoder harus pergi kemana dan mengevaluasi link berdasarkan alamat yang ditentukan dari awal. Crawler mengikuti link dan mencoba menemukan dokumen yang belum dikenal oleh search engine.

3.Indexer

Komponen ini melakukan aktifitas untuk menguraikan masing-masing halaman dan meneliti berbagai unsur, seperti teks, headers, struktur atau fitur dari gaya penulisan, tag HTML khusus, dll.

4.Database

Merupakan tempat standar untuk menyimpan data-data dari halaman yang telah dikunjungi, di-download dan sudah dianalisis. kadang kala disebut juga dengan index dari suatu search engine.

5.Result Engine

Mesin yang melakukan penggolongan dan penentuan peringkat dari hasil pencarian pada search engine. Mesin ini menentukan halaman mana yang menemui kriteria terbaik dari hasil pencarian berdasarkan permintaan penggunanya, dan bagaimana bentuk penampulan yang akan ditampilkan.
Proses ini dilaksanakan berdasarkan algoritma perangkingan yang dimiliki oleh search engine tersebut, mengikuti kaidah perangkingan hakaman yang dipergunakan oleh mereka adalah hak mereka, para peneliti mempelajari sifat-sifat yang mereka gunakan, terutama untuk meningkatkan pencarian yang dihasilkan oleh serach engine tersebut.

6.Web Server

Merupakan komponen yang melayani permintaan dan memberikan respon balik dari permintaan tersebut. Web Server ini biasanya menghasilkan informasi atau dokumen dalam format [[[HTML]]. Pada halaman tersebut tersedia layanan untuk mengisikan kata kunci pencarian yang diinginkan oleh usernya. Web Server ini juga bertanggung jawab dalam menyampaikan hasil pencarian yang dikirimkan kepada komputer yang meminta informasi.
I. Algoritma search engine
            Secara umum, algoritma pencarian adalah sebuah prosedure yang bekerja dalam satu arah. Cara kerjanya sebagai berikut, pertama ada masalah, kemudian mencari berbagai solusi yang mempunyai kemungkinan sebagai pemecahannya, lalu keluar dengan hasil akhir yaitu sebuah solusi.
            Dengan metode atau prosedure seperti itulah sebuah search engine bekerja. Pertama dia akan meminta masukan atau sebuah permasalahan. Apa permasalah itu? Yaitu kata/kalimat yang ingin kita cari di internet. Setelah kita memasukkan kata kedalam kotak yang disediakan, kemudian mengklik tombol search, maka prosedure kedua dijalankan oleh search engine.
            Pada tahap kedua inilah algoritma pencarian mulai bekerja. Melalui algoritma ini search engine akan berusaha mengumpulkan, dan mengurutkan berbagai solusi yang menurutnya mempunyai keterkaitan dengan kata/kalimat yang dicari. Dan akhirnya keluar dengan hasil akhir yaitu menampilkan berbagai halaman web yang menurut search engine tadi berhubungan dengan kata/kalimat yang dicari.
            Ada berbagai macam algoritma pencarian yang bisa digunakan oleh search engine untuk memecahkan masalah. Masing-masing search engine menggunakan metodanya sendiri. Itulah yang menyebabkan mengapa saat kita mencari menggunakan kata/kalimat yang sama namun di search engine yang berbeda, akan mendapatkan hasil yang berbeda pula.
Berikut ini beberapa macam algortima pencarian yang digunakan oleh search engine:
1. List Search
            Algoritma ini bekerja dengan cara mencari secara berurutan. Kita bisa membayangkannya seperti saat kita ingin mencari seseorang dalam sebuah antrian. Maka kita mencarinya dengan cara memeriksa satu persatu, dari awal antrian hingga kita menemukan orang yang ingin kita cari.
            Cara atau algoritma seperti ini biasanya digunakan saat kita ingin mencari dengan menggunakan satu faktor atau satu kunci saja sebagai penentu. Untuk antrian yang pendek, cara ini mungkin cukup efektif dan efisien. Tapi untuk mencari sebuah kata dari milyaran web page yang ada di internet, maka akan membutuhkan waktu yang sangat lama.
2. Tree Search
            Bayangkan sebuah pohon! Bayangkan mulai dari akar, batang, cabang, kemudian ranting-rantingnya. Begitulah cara kerja dari algoritma ini. Algoritma ini akan bekerja dengan cara mencarinya dari yang paling mendekati hingga ke yang paling tidak mendekati. Atau bisa juga dikatakan dari yang paling umum hingga ke yang paling spesifik, atau sebaliknya.
            Algoritma ini mirip dengan cara yang digunakan orang untuk mengatur internet. Seperti yang kita tahu, setiap situs yang ada di internet itu mempunyai keterkaitan antara satu dengan yang lainnya. Kita bisa menelusuri keterkaitan ini dengan cara memulai dari tingkat yang paling kecil dulu, kemudian ke tingkat yang paling besar, atau sebaliknya.
            Tree searches adalah cara yang ampuh digunakan untuk melakukan pencarian di internet, akan tetapi cara ini tidak selalu memberikan hasil yang memuaskan.
3. SQL Search
            Diambil dari kata sequel. Satu kelemahan saat melakukan pencarian menggunakan metode Tree Search yaitu pencarian dilakukan dengan cara dari point ke point, atau dari satu titik ke titik. Itu artinya data harus dicari secara hirarki, dari besar ke kecil atau sebaliknya. Dan kelemahan ini bisa teratasi dengan menggunakan SQL search.
4. Informed Search
            Algoritma informed search bekerja dengan cara mencari solusi yang spesifik atau khusus dari sebuah dataset yang bercabang-cabang (tree dataset). Sesuai dengan namanya, algoritma ini tidak selalu cocok digunakan untuk melakukan pencarian di internet. Karena algoritma ini cuma cocok digunakan untuk pemecahan masalah-masalah yang spesifik atau khusus saja. Sedangkan kita seringkali ingin mencari pemecahan untuk masalah-masalah yang bersifat umum atau luas.
5. Adversarial Search
            Adversarial search bekerja dengan cara mencari berbagai kemungkinan solusi atas sebuah masalah. Ini seperti saat kita melakukan permainan rolex atau gambling, dimana semua kemungkinan akan kita coba. Algoritma ini sulit digunakan untuk melakukan pencarian di internet, sebab berapa banyak kemungkinan yang akan di dapat untuk mencari sebuah kata di internet? Nyaris tak terhingga.
6. Constraint Satisfaction Search
            Saat kita mencari suatu kata/kalimat di internet, maka algoritma constraint satisfaction search ini sepertinya adalah metode yang paling mendekati atau sesuai dengan keinginan mu. Algoritma pencarian jenis ini, akan mencari solusi dengan cara memberikan berbagai alternatif pilihan. Algoritma ini akan mencari dengan berbagai cara, dan tidak harus dengan cara yang berurutan.
            Itu tadi beberapa algoritma yang diperlukan saat sebuah search engine akan dibuat. Dan seringkali lebih dari satu algoritma yang digunakan oleh sebuah search engine. Dan seringkali juga, search engine tertentu akan membuat algoritma yang baru.

J. Search engine populer

            Terdapat ratusan bahkan ribuan mesin pencari yang ada di internet, dan kapasitas mesin tersebut akan selalu tumbuh dari waktu ke waktu. Dari sebanyak itu, hanya sebagian kecil yang berpengaruh besar dalam lalulintas untuk pengantar pengunjungnya ke situs tersebut. untuk itu, harus pintar dalam memilih mereka yang tepat terutama dalam efisiensi dan efektifitas waktu yang anda miliki dalam mencapai sasaran yang diinginkan, karena situs yang tidak terlalu populer belum tentu akan berpengaruh besar terhadap pertumbuhanke situs yang dikelola. Apalagi juka pendaftaran situs-situs penyedia layanan pencarian tersebut dilakukan satu persatu, akan membuang waktu. Cara mudahnya, lebih baik menggunakan software pendaftar ke mesin pencari yang banyak beredar di internet, sehingga proses pendaftaran bisa dilakukan secara otomatis melalui software tersebut.
Berikut ini adalah beberapa mesin pencari:
  1. Google ( http://www.google.com/ )
  2. Yahoo ( http://www.yahoo.com/ )
  3. Open Directory (http://www.dmoz.com/ )
  4. MSN ( http://www.msn.com/ )
  5. Live ( http://www.live.com )
  6. Altavista ( http://www.altavista.com )
  7. AOL ( http://www.aol.com )
  8. Altheweb ( http://www.althweb.com )
  9. Baidu ( http://www.baidu.com )
  10. Looksmart ( http://www.looksmart.com )
  11. Solusee ( http://www.solusee.com )
 

Blogger news

Blogroll

About