16 April 2013

Analisa Web

,
Anggota kelompok :
Putri Kurniawati (55411649)
M. Fajar R (54411822)
Indra Septiawan Pamungkas (53411608)
Muhammad Junaedi Hilman (54411682)
G. Ricky Trainando (58411572)

Kelas : 2IA15

1. Pengukuran Web

- Tools-tools yang digunakan untuk mengukur analisis web

Berikut ini adalah tools-tools yang digunakan untuk mengukur analisis web:

1. Google analytic
Aplikasi dari google untuk mengetahui darimana pengunjung, berapa jumlah pengunjung tiap hari/bulan/tahun.

2. IBP
Internet Bussines Promotore merupakan layanan untuk skala bisnis untuk mencari trend, keyword, pengunjung serta memonitoring aktifitas dalam website.

3. FeedBurner Reader
Fasilitas gratis dari feedburner untuk melihat post/artikel apa saja yang telah dibuka pengunjung setiap harinya. Layanan ini juga menyediakan form untuk berlangganan artikel pada pengunjung dengan mengirimkan email ke pengunjung.


- Alasan Mengapa Web perlu di Analisa

Berikut ini adalah alasan mengapa sebuah web perlu dianalisa:
1. Membantu memantau berapa lama pengunjung yang membuka situs Web tersebut.
2. Membantu mengoptimalkan situs Web dalam hal penampilan, menambah informasi, dan menambahkan fitur-fitur yang membuat pengunjung betah membuka situs Web tersebut.
3. Mengukur web juga akan membantu pemilik situs Web untuk mempersiapkan e-marketing atau strategi memenuhi kebutuhan pasar.


- Cara untuk Menganalisa Web dengan Google Analytic

Google Analytics (sebelumnya Urchin) telah menjadi salah satu yang paling kuat industri pemasaran Internet alat, membantu pengiklan, penerbit, dan pemilik Situs Web mereka meningkatkan konversi penjualan, kampanye penargetan, dan inisiatif Pemasaran. Ini adalah statistik yang kuat web aplikasi perangkat lunak yang disediakan oleh Google secara gratis.

Google Analytics sederhana dan mudah digunakan, dan siapa saja bisa mulai mendapatkan manfaat dari itu hanya dalam beberapa menit. Hanya menambahkan beberapa kode dasar untuk Situs Web Anda, dan Anda siap untuk mulai memantau tren pengunjung.

Untuk memulai membuat account Google Analytics dengan mengunjungi www.google.com / analytics.
Ikuti petunjuk yang diberikan untuk menempatkan kode pelacakan ke situs Web yang relevan file. Setelah Anda membuat account Google Analytics dan menempatkan kode yang diberikan ke situs Web Anda, Anda akan perlu menambahkan parameter ke URL di setiap pesan pemasaran email. Ini menunjukkan yang pengunjung tiba sebagai akibat dari setiap kampanye pemasaran email.
Sementara beberapa produk pemasaran email secara otomatis menambahkan parameter, dibutuhkan hanya beberapa menit untuk mengaturnya secara manual.

Google Analytics akan mencari nilai-nilai dasar dalam setiap link, yaitu sumber kampanye, media kampanye, dan nama kampanye.



-  Parameter untuk Mengukur Web



parameter yang ditampilkan dalam Google Analytic adalah:
Sumber Kampanye (utm_source). Ini mengidentifikasi nama dari sistem pemasaran Anda email, seperti StreamSend. Jika Anda tidak menggunakan sistem pemasaran email, Anda dapat label kampanye sumber Anda "Email Marketing."

Media Kampanye (utm_medium). Ini mengidentifikasi instrumen kampanye yang digunakan. Dalam kasus pemasaran email, media Anda adalah "email."

Nama Kampanye (utm_campaign). Ini mengidentifikasi nama kampanye Anda. Nama Kampanye membantu Anda membedakan antara berbagai kampanye atau pesan unik dalam masing-masing. Pemasar email yang paling menggunakan pesan subjek mereka garis atau nilai identitas lainnya untuk parameter ini.

2. Crawlers

- Definisi Crawlers

Merupakan program yang dimiliki search engine untuk melacak dan menemukan link yang terdapat dari setiap halaman yang ditemuinya. Tugasnya adalah untuk menentukan spoder harus pergi kemana dan mengevaluasi link berdasarkan alamat yang ditentukan dari awal. Crawlers mengikuti link dan mencoba menemukan dokumen yang belum dikenal oleh search engine.


- Waktu yang Tepat untuk Menggunakan Crawlers

Proses web crawler dalam mengunjungi setiap dokumen web disebut dengan web crawling atau spidering. Beberapa websites, khususnya yang berhubungan dengan pencarian menggunakan proses spidering untuk memperbaharui data data mereka.

Web crawler biasa digunakan untuk membuat salinan secara sebhagian atau keseluruhan halaman web yang telah dikunjunginya agar dapat dip roses lebih lanjut oleh system pengindexan. Crawler dapat juga digunakan untuk proses pemeliharaan sebuah website, seperti memvalidasi kode html sebuah web, dan crawler juga digunakan untuk memperoleh data yang khusus seperti mengumpulkan alamat e-mail.

- Contoh-contoh Crawlers

Berikut ini adalah contoh-contoh dar Crawler:

1.Teleport Pro
Salah satu software web crawler untuk keperluan offline browsing. Software ini sudah cukup lama popular, terutama pada saat koneksi internet tidak semudah dan secepat sekarang. Software ini berbayar dan beralamatkan di http://www.tenmax.com.

2.HTTrack
Ditulis dengan menggunakan C, seperti juga Teleport Pro, HTTrack merupakan software yang dapat mendownload konten website menjadi sebuah mirror pada harddisk anda, agar dapat dilihat secara offline. Yang menarik software ini free dan dapat di download pada website resminya di http://www.httrack.com

3.Googlebot
Merupakan web crawler untuk membangun index pencarian yang digunakan oleh search engine Google. Kalau website anda ditemukan orang melalui Google, bisa jadi itu merupakan jasa dari Googlebot. Walau konsekuensinya, sebagian bandwidth anda akan tersita karena proses crawling ini.

4.Yahoo!Slurp
Kalau Googlebot adalah web crawler andalan Google, maka search engine Yahoo mengandalkan Yahoo!Slurp. Teknologinya dikembangkan oleh Inktomi Corporation yang diakuisisi oleh Yahoo!.

5.YaCy
Sedikit berbeda dengan web crawler  lainnya di atas, YaCy dibangun atas prinsip jaringan P2P (peer-to-peer), di develop dengan menggunakan java, dan didistribusikan pada beberapa ratus mesin computer (disebut YaCy peers). Tiap-tiap peer di share dengan prinsip P2P untuk berbagi index, sehingga tidak memerlukan server central. Contoh search engine yang menggunakan YaCy adalah Sciencenet (http://sciencenet.fzk.de), untuk pencarian dokumen di bidang sains.

- Cara Kerja Crawlers

1. Mesin pencari web bekerja dengan cara menyimpan informasi tentang banyak halaman web, yang diambil langsung dari WWW. Halaman-halaman ini diambil dengan web crawler — browser web otomatis yang mengikuti setiap pranala yang dilihatnya. Isi setiap halaman lalu dianalisis untuk menentukan cara mengindeksnya (misalnya, kata-kata diambil dari judul, subjudul, atau field khusus yang disebut meta tag).
2. Data tentang halaman web disimpan dalam sebuah database indeks untuk digunakan dalam pencarian selanjutnya.
3. Mesin pencari juga menyimpan dan memberikan informasi hasil pencarian berupa pranala yang merujuk pada file, seperti file audio, file video, gambar, foto dan sebagainya
Ketika seorang pengguna mengunjungi mesin pencari dan memasukkan query, biasanya dengan memasukkan kata kunci, mesin mencari indeks dan memberikan daftar halaman web yang paling sesuai dengan kriterianya.

3. Search Engine

- Search Engine yang ada

Search engine adalah program komputer yang dirancang untuk melakukan pencarian atas berkas berkas yang tersimpang dalam layanan www, ftp, publikasi, milis ataupun news group dalam sebuah ataupun sejumlah komputer dalam suatu jaringan.
Sebagian besar mesin pencari dijalankan oleh perusahaan swasta, berikut adalah contoh-contoh Search Engine yang ada di dunia:
  1. Yahoo!
  2. Alltheweb
  3. MSN
  4. AskJeeves
  5. Google
  6. Altavista
  7. Lycos

- Perbedaaan-perbedaan Search Engine

Berikut ini adalah penjelesan dari masing-masing Search Engine

1. Yahoo!
(http://www.yahoo.com)
Salah satu portal terbesar di Internet, selain MSN., dan juga salah satu mesin pencaru tertua. Halaman utamanya sendiri tidak terlalu ramah untuk pencarian, tetapi Yahoo! menyediakan search.yahoo.com untuk itu. Yahoo! menggunakan jasa Google untuk mencari informasi di web, ditambah dengan informasi dari databasenya sendiri. Kelebihan Yahoo! adalah direktorinya. Yahoo! juga menyediakan pencarian yellow pages dan peta, yang masih terbatas pada Amerika Serikat. Yahoo juga menyediakan pencarian gambar.

2. Alltheweb
(http://www.alltheweb.com)
Keunggulan Alltheweb adalah pencarian file pada FTP Server. Tidak seperti web, FTP adalah teknologi internet yang ditujukan untuk menyimpan dan mendistribusikan file, biasanya program, audio atau video. Web sebenarnya lebih ditujukan untuk teks. Sejauh ini, hanya AllTheWeb yang menyediakan jasa pencarian file.

3. MSN
(http://search.msn.com)
Mesin pencari dari Microsoft Network ini menawarkan pencarian baik dengan kata kunci maupun dari direktori. Pemakai Internet Explorer kemungkinan besar sudah pernah menggunakan mesin pencari ini. Situs Searchenginewatch mencatat MSN sebagai mesin pencari ketiga populer setelah Google dan Yahoo! Tak ada pencarian image, atau news. Menyediakan pencarian peta, yellow pages, white pages, pencarian pekerjaan, rumah.

4. AskJeeves
(http://www.ask.com)
Situs mesin pencari yang satu ini mengunggulkan kemampuannya untuk memahami bahasa manusia. Pengguna bisa menggunakan kalimat lengkap, bukan kata kunci. Situs ini berguna untuk mengetahui jawaban dari pertanyaan(misal: when did world war II end?).

5. Google
(http://www.google.com)
Selain pencarian web, Google juga menyediakan jasa pencarian gambar, pencarian ?berita serta pencarian pada arsip USENET (newsgroup), serta direktori, seperti Yahoo! Kelemahannya terletak pada tidak tersedianya pencarian file, video, dan audio. Keunggulan Google terutama adalah pada pencarian teks, terutama dari algoritma PageRank, database-nya yang besar serta banyaknya jenis file yang diindeksnya.

6. AltaVista
(http://www.altavista.com)
Satu saat, AltaVista pernah menjadi mesin pencari terbesar. Saat ini, selain Alltheweb, Altavista juga menawarkan pencarian audio dan video. Keunggulan AltaVista adalah pilihan pencarian yang paling lengkap di antara semua mesin pencari.

7. Lycos
(http://www.lycos.com)
Salah satu mesin pencari tertua. Saat ini Lycos lebih dikenal sebagai portal, sehingga fungsi pencarinya tidak terlalu menonjol. Lycos, selain mendukung pencarian web, juga menyediakan pencarian file MP3, dan video pada http://multimedia.lycos.com.

- Fitur-fitur yang ada di Search Engine

Berikut ini adalah fitur-fitru yang ada pada Search Engine Google

1. Perhitungan matematika sederhana.
Mesin cari Google bisa melakukan perhitungan matematika sederhana seperti penjumlahan, perkalian, pembagian atau pengurangan, karena memiliki kemampuan fungsi sebagai kalkulator. Ketikkan angka yang ingin dihitung beserta tanda perhitungannya ke dalam kotak mesin cari, misalnya: 5+3*5, lalu tekan tombol Enter atau klik tombol Search di Google.

2. Konversi mata uang.
Fasilitas konversi mata uang juga tersedia di mesin cari Google. Cukup ketikkan angkanya diikuti tanda mata uangnya yang ingin dikonversi dari mata uang tertentu ke mata uang yang diinginkan di kotak mesin cari, misalnya:100 USD in IDR, lalu tekan Enter.

3. Melihat waktu di berbagai kota di seluruh dunia.
Anda bisa mencari tahu waktu lokal di sebuah kota atau negara lain. Cukup ketikkan time in [nama kota/negara] di kotak pencarian untuk mencari tahu dengan mudah waktu lokal di sebuah kota/negara. Misal: time in Barcelona.

4. Konversi unit.
Selain berfungsi sebagai kalkulator, mesin cari Google juga bisa mengkonversi ukuran. Misalnya: 100 inch in meter.

5. Cek ejaan.
Google juga punya fasilitas mengecek ejaan, baik ejaan biasa untuk kata benda seperti nama dan tempat, yang mungkin tidak muncul di program spell check atau kamus standar.

4. Web Archiving

- Definisi Web Archiving

Pengarsipan web (Web Archiving) adalah proses mengumpulkan bagian dari WWW dan memastikan koleksi tersebut diawetkan dalam suatu arsip, misalnya situs arsip, untuk diakses peneliti, sejarawan, dan masyarakat umum pada masa datang.

- Cara Kerja Web Arciving

Yang paling umum web pengarsipan teknik menggunakan web crawler untuk mengotomatisasi proses pengumpulan halaman web. Web crawler biasanya mengakses halaman web dengan cara yang sama dengan yang dilakukan user yang menggunakan web browser untuk menemukan website yang ingin dicari.

- Contoh-contoh Web Archiving

Berikut Ini adalah Beberapa Contoh Layanan yg melayani jasa Web Archiving:

• Archive-it : Sebuah Layanan Pengarsipan Web Berlangganan yang memperbolehkan sebuah institusi Untuk Membangun, Me-Manage, dan Mecari Arsip web Institusi itu sendiri

•Archive.is : Sebuah Layanan Pengarsipan Web Gratis Untuk menyimpan Halaman dan berikut juga Gambar dari sebuah website tertentu. Dan bias menyimpan halaman dari Web 2.0.

•Iterasi : Sebuah Layanan Pengarsipan Web yang khusus untuk agensi pemerintahan, organisasi Finansial, brand heritage Dll.



Daftar Pustaka
http://pabriktea.blogspot.com/2010/03/3-manfaat-web-analytics.html
http://id.wikipedia.org/wiki/Mesin_pencari_web
http://blog.um.ac.id/corianna/2011/12/14/search-engine-web-crawler/
http://cattingspot.blogspot.com/2013/01/macam-macam-search-engine-yang-ada-di.html
http://en.wikipedia.org/wiki/Web_archiving

0 komentar to “Analisa Web”

Posting Komentar

You can replace this text by going to "Layout" and then "Page Elements" section. Edit " About "

About

powered by
Socialbar
 

Putri's Blog Copyright © 2011 | Template design by O Pregador | Powered by Blogger Templates