Senin, 13 Mei 2013

Pengertian Search Engine

Pengertian Search Engine Apa itu Search Engine Search engine disebut juga dengan mesin pencari, dimana sistem yang ada pada sistem tersebut diolah melalui satu atau sekelompok komputer yang berfungsi untuk melakukan pencarian data. Data yang ada pada mesin ini dikumpulkan oleh mereka melalui suatu metoda tertentu, dan diambil dari seluruh server yang dapat mereka akses. Jika dilakukan pencarian melalui search engine ini, maka pencarian yang dilakukan sebenarnya adalah pada database yang telah terkumpul di dalam mesin tersebut. Jadi dapat di simpulkan Searh Engine adalah Mesin Pelacak atau penelusur. Search engine adalah sistem database yang dirancang untuk mengindex alamat-alamat website di internet . Untuk melaksanakan tugasnya ini, search engine atau mesin pencari memiliki program khusus yang biasanya disebut spider crawler. Pada saat Anda mendaftarkan sebuah alamat website (URL), spider dari search engine tersebut akan menerima dan menganalisa URL tersebut lalu mengcrawlnya. Dengan proses dan prosedur yang serba otomatis, spider ini akan memutuskan apakah web yang anda daftarkan layak diterima atau tidak pada search engine tersebut. Jika layak, spider akan langsung menambahkan alamat URL tersebut ke sistem database mereka. Rangking-pun segera ditetapkan dengan algoritma dan caranya masing-masing. Jika tidak layak, terpaksa Anda harus bersabar dan mengulangi pendaftaran diwaktu yang lain. Jadi semua yang namanya search engine, pasti memiliki program yang disebut Spider crawler. Dan program inilah yang sebenarnya menentukan posisi web site Anda di search engine tersebut. Contoh beberapa search engine terkenal adalah : Altavista, Google, Excite, Northern Light, Hotbot, dan masih bayak lagi. Berbeda dengan web directory yang meng-index halaman website di internet secara manual. Manual yang dimaksud adalah mereka menggunakan orang biasa untuk menganalisa setiap halaman web yang masuk. Tidak menggunakan spider atau crawler seperti halnya search engine. Keunggulan directory dibanding search engine adalah memberikan hasil pencarian yang lebih relevan dengan kualitas yang relatif lebih baik. Tapi karena semua proses dilakukan secara manual (menggunakan editor manusia), jumlah database yang dimiliki bisasanya jauh lebih kecil dibandingkan dengan search engine. Itulah sebabnya sekarang ini banyak perusahaan yang mengelola directory menerapkan sistem ganda, yaitu menggunakan directory + search engine. Contoh nyata adalah Yahoo yang menggandeng Google sebagai search engine default-nya. Contoh beberapa directory terkenal selain Yahoo adalah Open Directory Project, Looksmart, dan NBCi. Sekarang udah ngertikan apa itu Serach engine, Mesin Pencari, alias Mesin Penelusur Label: SEARCH ENGINE Pengertian Search Engine Optimization Dalam dunia website/weblog sekarang ini, khususnya bagi para publisher dan blogger diperlukan pengetahuan tentang Search Engine Optimization, website/weblog yang telah sobat buat tugas selanjutnya adalah mendaftarkan website/weblog sobat ke mesin pencari Google atau yang lainnya. Sebelum mendaftarkan website/weblog yang telah dibuat; sekarang yang menjadi pertanyaan apa itu search engine optimization, cara kerja dan fungsi suatu search engine. I. Pengertian Search Engine Mesin pencari web atau yang lebih dikenal dengan istilah web search engine merupakan program komputer yang dirancang untuk mencari informasi yang tersedia didalam dunia maya. Berbeda halnya dengan direktori web (seperti dmoz.org) yang dikerjakan oleh manusia untuk mengelompokkan suatu halaman informasi berdasarkan kriteria yang ada, web search engine mengumpulkan informasi yang tersedia secara otomatis. II. Cara Kerja Search Engine Mesin pencari web bekerja dengan cara menyimpan hampir semua informasi halaman web, yang diambil langsung dari www. Halaman-halaman ini diambil secara otomatis. Isi setiap halaman lalu dianalisis untuk menentukan cara mengindeksnya (misalnya, kata-kata diambil dari judul, subjudul, atau field khusus yang disebut meta tag). Data tentang halaman web disimpan dalam sebuah database indeks untuk digunakan dalam pencarian selanjutnya. Sebagian mesin pencari, seperti Google, menyimpan seluruh atau sebagian halaman sumber (yang disebut cache) maupun informasi tentang halaman web itu sendiri. Ketika seorang pengguna mengunjungi mesin pencari dan memasukkan query, biasanya dengan memasukkan kata kunci, mesin mencari indeks dan memberikan daftar halaman web yang paling sesuai dengan kriterianya, biasanya disertai ringkasan singkat mengenai judul dokumen dan terkadang sebagian teksnya. Mesin pencari lain yang menggunakan proses real-time, seperti Orase, tidak menggunakan indeks dalam cara kerjanya. Informasi yang diperlukan mesin tersebut hanya dikumpulkan jika ada pencarian baru. Jika dibandingkan dengan sistem berbasis indeks yang digunakan mesin-mesin seperti Google, sistem real-time ini unggul dalam beberapa hal seperti informasi selalu mutakhir, (hampir) tak ada broken link, dan lebih sedikit sumberdaya sistem yang diperlukan (Google menggunakan hampir 100.000 komputer, Orase hanya satu.). Tetapi, ada juga kelemahannya yaitu pencarian lebih lama rampungnya. III. Komponen utama dalam Search Engine Sebuah search engine memiliki beberapa komponen agar dapat menyediakan layanan utamanya sebagai sebuah mesin pencari informasi. Komponen tersebut antara lain : a. Web Crawler Web crawler atau yang dikenal juga dengan istilah web spider bertugas untuk mengumpulkan semua informasi yang ada di dalam halaman web. Web crawler bekerja secara otomatis dengan cara memberikan sejumlah alamat website untuk dikunjungi serta menyimpan semua informasi yang terkandung didalamnya. Setiap kali web crawler mengunjungi sebuah website, maka dia akan mendata semua link yang ada dihalaman yang dikunjunginya itu untuk kemudian di kunjungi lagi satu persatu. Proses web crawler dalam mengunjungi setiap dokumen web disebut dengan web crawling atau spidering. Beberapa websites, khususnya yang berhubungan dengan pencarian menggunakan proses spidering untuk memperbaharui data data mereka. Web crawler biasa digunakan untuk membuat salinan secara sebhagian atau keseluruhan halaman web yang telah dikunjunginya agar dapat dip roses lebih lanjut oleh system pengindexan. Crawler dapat juga digunakan untuk proses pemeliharaan sebuah website, seperti memvalidasi kode html sebuah web, dan crawler juga digunakan untuk memperoleh data yang khusus seperti mengumpulkan alamat e-mail. Web crawler termasuk kedalam bagian software agent atau yang lebih dikenal dengan istilah program bot. Secara umum crawler memulai prosesnya dengan memberikan daftar sejumlah alamat website untuk dikunjungi, disebut sebagai seeds. Setiap kali sebuah halaman web dikunjungi, crawler akan mencari alamat yang lain yang terdapat didalamnya dan menambahkan kedalam daftar seeds sebelumnya. Dalam melakukan prosesnya, web crawler juga mempunyai beberapa persoalan yang harus mampu di atasinya. Permasalahan tersebut mencakup :  Halaman mana yang harus dikunjungi terlebih dahulu.  Aturan dalam proses mengunjungi kembali sebuah halaman.  Performansi, mencakup banyaknya halaman yang harus dikunjungi.  Aturan dalam setiap kunjungan agar server yang dikunjungi tidak kelebihan beban.  Kegagalan, mencakup tidak tersedianya halaman yang dikunjungi, server down, timeout, maupun jebakan yang sengaja dibuat oleh webmaster.  Seberapa jauh kedalaman sebuah website yang akan dikunjungi.  Hal yang tak kalah pentingnya adalah kemampuan web crawler untuk mengikuti perkembangan teknologi web, dimana setiap kali teknologi baru muncul, web crawler harus dapat menyesuaikan diri agar dapat mengunjungi halaman web yang menggunakan teknologi baru tersebut. Proses sebuah web crawler untuk mendata link – link yang terdapat didalam sebuah halaman web menggunakan pendekatan regular expression. Crawler akan menelurusi setiap karakter yang ada untuk menemukan hyperlink tag html (). Setiap hyperlink tag yang ditemukan diperiksa lebih lanjut apakah tag tersebut mengandung atribut nofollow rel, jika tidak ada maka diambil nilai yang terdapat didalam attribute href yang merupakan sebuah link baru. b. Indexing system Indexing system bertugas untuk menganalisa halaman web yang telah tersimpan sebelumnya dengan cara mengindeks setiap kemungkinan term yang terdapat di dalamnnya. Data term yang ditemukan disimpan dalam sebuah database indeks untuk digunakan dalam pencarian selanjutnya. Indexing system mengumpulkan, memilah dan menyimpan data untuk memberikan kemudahan dalam pengaksesan informasi secara tepat dan akurat. Proses pengolahan halaman web agar dapat digunakan untuk proses pencarian berikutnya dinakamakan web indexing. Dalam implementasinya index system dirancang dari penggabungan beberapa cabang ilmu antara lain ilmu bahasa, psikologi, matematika, informatika, fisika, dan ilmu komputer. Tujuan dari penyimpanan data berupa indeks adalah untuk performansi dan kecepatan dalam menemukan informasi yang relevan berdasarkan inputan user. Tanpa adanya indeks, search engine harus melakukan scan terhadap setiap dokumen yang ada didalam database. Hal ini tentu saja akan membutuhkan proses sumber daya yang sangat besar dalam proses komputasi. Sebagai contoh, indeks dari 10.000 dokumen dapat diproses dalam waktu beberapa detik saja, sedangkan penulusuran secara berurutan setiap kata yang terdapat di dalam 10.000 dokumen akan membutuhkan waktu yang berjam lamanya. Tempat tambahan mungkin akan dibutuhkan di dalam computer untuk penyimpanan indeks, tapi hal ini akan terbayar dengan penghematan waktu pada saat pemrosesan pencarian dokumen yang dibutuhkan. c. Search system Search system inilah yang berhubungan langsung dengan pengguna, meyediakan hasil pencarian informasi yang diinginkan. Ketika seorang pengguna mengunjungi mesin pencari dan memasukkan kata pencarian biasanya dengan beberapa kata kunci, search system akan mencari data dari indeks database, data yang cocok kemudian akan ditampilkan, biasanya disertai ringkasan singkat mengenai judul dokumen dan terkadang sebagian teksnya. kepada pelbagai lapisan masyarakat (Nik Azis, 1996). Menyedari hakikat ini, kerajaan Malaysia telah mengambil inisiatif untuk terus memperkembangkan teknologi komunikasi dan maklumat ini dengan menubuhkan Koridor Raya Multimedia (MSC). Tujuh aplikasi utama dalam MSC terdiri daripada kerajaan elektronik, tele-perubatan, sekolah bestari, kad pintar, pemasaran tanpa sempadan, kelompok penyelidikan dan pembangunan dan jaringan perusahaan sedunia. Ketujuh-tujuh aplikasi ini mewujudkan telekomunikasi global berkeupayaan tinggi yang membawa Malaysia kea rah negara maju dan makmur (MDC, 2000). Sejajar dengan teknologi ICT juga, kerajaan telah menubuhkan sekolah bestari yang telah memperlihatkan kesungguhan Kementerian Pelajaran Malaysia untuk mentransformasikan pendidikan agar bangsa Malaysia abad ke-21 ini bukan sahaja menguasai teknologi maklumat malah berupaya merealisasikan Wawasan 2020. Transformasi ini telah mengubah anjakan paradikma pengajar dan pelajar dalam proses pengajaran dan pembelajaran dalam pendidkan negara khususnya dalam meningkatkan minat pelajar, meningkatkan kreativiti dan pengetahuan pelajar melalui penggunaan teknologi multimedia dan jaringan seluruh dunia. Pihak Kementerian Pendidikan Malaysia melihat ICT sebagai suatu alat untuk merevolusikan pembelajaran, memperkayakan kurikulum, memperkembangkan pedagogi, menstrukturkan organisasi sekolah dengan lebih berkesan, melahirkan hubungan yang lebih kuat di antara sekolah-sekolah dan masyarakat, dan meningkatkan penguasaan pelajar. Konsep ICT dalam pendidikan dari kaca mata KPM merangkumi 3 polisi utama: i. ICT untuk semua pelajar, bermaksud bahawa ICT digunakan sebagai sesuatu yang boleh mengurangkan jurang digital antara sekolah. ii. Fungsi dan peranan ICT di dalam pendidikan adalah sebagai suatu alat pengajaran dan pembelajaran, sebagai sebahagian daripada subjek tersebut, dan sebagai sesuatu subjek tersendiri. iii. Menggunakan ICT untuk meningkatkan produktiviti, kecekapan dan keberkesanan sesuatu sistem pengurusan. Selain daripada bidang pendidikan, perkembangan persekitaran global telah memberi kesan besar kepada usaha membangunkan Malaysia sebagai sebuah ekonomi berasaskan pengetahuan yang berdaya saing. Memandangkan ICT merupakan penentu utama dalam proses pembangunan bagi meningkatkan ekonomi dalam rantaian nilai, usaha akan dipergiat untuk mengarusperdanakan akses kepada perkhidmatan dan kemudahan ICT secara meluas serta menggalakkan penerimaan dan penggunaan ICT secara menyeluruh dalam semua aspek kehidupan.Jadual 1 : Penggunaan ICT dalam P&P adalah seperti jadual berikut Cakera Padat CD Rom Internet Aplikasi Perisian Kursus Pendidikan (Tutorial) – Courseware Pencarian maklumat – search Engine 1 browsing + pangkalan data + membangun laman web – home page design Pemprosesan Data – Microsoft Word -Microsoft Publisher -Page Maker Pangkalan Data – Database Komunikasi -Forum -Emel -Chat Hamparan elektronik -Microsoft Excel Ensaiklopedia / Maklumat/ Sumber Multimedia Muat turun – Download Persembahan -Microsoft Power Point Gambar 1 : Perubahan teknologi masa kini 3 2.0 Sejarah Internet Internet atau ‘Internasional Network of Networks’ merupakan sebuah rangkaian gergaji komputer di peringkat antarabangsa (TMB, 1998) dan merupakan cara komputer berkomunikasi antara satu sama lain (Crumlish, 1996). Ia mengandungi lebih daripada 50 ribu rangkaian komputer di seluruh dunia, lebih daripada 6.6 juta komputer hos dan lebih daripada 50 juta pengguna dari lebih 160 buah negara (Zoraini, 1995). Negara kita telah meletakkan ICT dalam Rangka Rancangan Jangka Panjang Ketiga (RRJP3, 2001-2010) sebagai media utama untuk membina pengetahuan baru dan meransang berkembangan ekonomi berasaskan pengetahuan. Internet ini telah dimulakan di Amerika Syarikat dalam tahun 1969 melalui satu rangkaian yang dikenali sebagai ARPANET (Advance Research Projects Agency Network). Tujuan ARPANET ini dibangunkan adalah supaya penyelidik dan ahli sains dapat saling bertukar maklumat ketenteraan dengan mudah. Pada tahun 1972, ARPANET menggunakan Network Control Protocol (NCP) untuk memindahkan data yang memberi laluan untuk pengguna berkomunikasi dalam rangkaian yang sama. Pada tahun tersebut juga e-mel telah diperkenalkan supaya setiap individu dalam berhubung melalui maya tanpa sempadan. Pada tahun 1979, kumpulan diskusi UseNet ditubuhkan. Kemudian pada tahun 1982, NCP telah ditukar kepada TCP atau IP (Transmission Control Protocol). Protokol ini telah diperkembangkan oleh satu kumpulan penyelidik yang diketuai oleh Vinton Cerf dan Bob Khan. Protokol ini telah membolehkan pelbagai rangkaian komputer berhubung dan berinteraksi antara satu sama lain. Pada tahun 1982 juga, istilah internet telah digunakan secara rasmi (Net Timeline, 2000). Pada tahun 1989, National Science Foundation (NSF) telah menubuhkan 5 pusat wilayah ‘superkomputer’ yang boleh dikongsi bagi tujuan penyelidikan akademik. Ini merupakan permulaan kepada World Wide Web (WWW). Pada tahun 1991, Ghoper dan WAIS (Wide Area Information Service) telah diperkenalkan dan seterusnya pada tahun 1993 Mosaic diperkenalkan. Ia merupakan pengimbas web yang kemudian diambil alih oleh Netscape Navigator. Pada tahun 1994, NSF mempunyai 5000 pusat wilayah dan merangkumi pelbagai agensi, kampus universiti dan perniagaan. Perkembangan pesat dalam teknologi multimedia dan teknologi internet membawa nafas baru dalam dunia pendidikan berasaskan teknologi maklumat dan komunikasi. Gabungan kedua

Tidak ada komentar:

Poskan Komentar