Sabtu, 14 Juni 2014

Analisis Web



Materi Softskill oleh :
Alvi Fajrin
Fajar Rizky
Riyana Wicaksono (56412508)
Teuku Alfian Pase  (57412341)


Pada tugas softskill mata kuliah Pengantar Web Science kali ini, akan dibahas tentang Analisis Web.



 
Image by : intersearchmedia.com       
               
            Analisis Web adalah pengukuran, pengumpulan, analisis dan pelaporan data internet untuk tujuan memahami dan mengoptimalkan penggunaan web. Web analytics bukan hanya alat untuk mengukur lalu lintas web, tetapi dapat digunakan sebagai alat untuk bisnis dan riset pasar, dan untuk menilai dan meningkatkan efektivitas dari sebuah situs web, membantu orang untuk memperkirakan bagaimana lalu lintas ke situs web berubah setelah peluncuran  kampanye iklan baru. Web analytics menyediakan informasi tentang jumlah pengunjung ke sebuah situs web dan jumlah tampilan halaman. Ini membantu mengukur lalu lintas dan popularitas tren yang berguna untuk riset pasar.

Pengukuran Web
pengukuran kinerja web (web measurement) adalah seni untuk mengumpulkan data dan menganalisa data agar dapat digunakan dan mudah dibaca oleh manusia. Salah satu teknik mengukur dan menguji suatu kinerja web adalah dengan mengukur pengalaman seseorang atau user experience pengunjung situs yang berinteraksi dengan halaman-halaman web yang berada di internet.

Ada beberapa tools yang digunakan untuk mengukur website dari segi kecepatan akses dan performanya, serta mengukur banyaknya pengunjung suatu website. Dibawah ini akan dipaparkan beberapa tools tersebut:


1. Pingdom Tools



 


Merupakan sebuah alat ukur kecepatan website dapat di akses, nilai dari sebuah website, dan beberapa ukuran dari sebuah website tersebut.

Beberapa kelebihannya di kategorikan sebagai berikut  :

Performance Grade : melihat nilai kecepatan performa halaman web, dari akses DNS, browser cache, combine external css dan lain-lain.
Waterfall : melihat detail kecepatan akses ketika membuka halaman web, dari gambar bahkan sampai seberapa cepat script tersebut dapat di akses.
Page Analysis : melihat detail analisa halaman web.
History : melihat detail akses dari beberapa hari lalu.

Kekurangan yang terdapat pada tools ini, sama seperti tools alat ukur akses web pada umumnya yaitu Membutuhkan akses internet yang stabil, karena tidak mungkin kita bisa mengukur kecepatan akses suatu website kalau akses internet kita terhadap website tersebut tidak stabil/berjalan dengan baik.

 2.  GTmetrix


image by : buildajoomlawebsite.com
      Adalah website untuk menganalisa kecepatan web yang tersedia secara gratis, dengan menggunakan google page speed dan Yahoo Yslow sebagai analyze engine dan untuk menampilkan hasil serta rekomendasi yang harus dilakukan.
Dengan GTmetrix juga dapat membandingkan beberapa URL sekaligus




3. Alexa Rank
      Alexa Internet, Inc. adalah perusahaan yang mengoperasikan situs yang menyediakan informasi mengenai banyaknya pengunjung suatu situs dan urutannya. Cara kerja Alexa rank Alexa memberikan peringkat ke sebuah situs berdasarkan jumlah pengunjung unik. Semakin rendah alexarank dari situs berarti situs memiliki sedikit pengunjung unik.Jadi jika Anda bisa mendapatkan lebih banyak traffic ke situs Anda, Anda akan mendapatkan lebih rendah alexa rank.

Selain tools-tools diatas, masih banyak tools serupa lainnya yang bisa dicari sendiri di Search Engine.



Crawlers


image by : seo-advisors.com

Crawler adalah robot milik search engine yg tugasnya mengumpulkan informasi pada halaman blog/web dan semua media internet yg bisa diindeks oleh search engine.

Cara kerja Crawlers, Pertama robot mengumpulkan informasi pada halaman blog/web dan semua media internet yg bisa diindeks oleh search engine. Robot tersebut kemudian membawa informasi yg didapatnya ke data center. Di data center, data tersebut kemudian di oleh sedemikian rupa, apabila memenuhi persyaratan, maka dia akan dimasukkan ke dalam indeks. Nah, proses yg dilakukan oleh user search engine adalah memanggil indeks-indeks tersebut, apabila indeks2 memiliki kesesuaian dengan yg dicari user (dan bila memiliki peringkat yg baik), di akan ditampilkan di halaman utama search engine (berperingkat).

Web crawler adalah suatu program atau script otomat yang relatif simple, yang dengan metode tertentu melakukan scan atau “crawl” ke semua halaman-halaman Internet untuk membuat index dari data yang dicarinya. Nama lain untuk web crawl adalah web spider, web robot, bot, crawl dan automatic indexer.
Web crawl dapat digunakan untuk beragam tujuan. Penggunaan yang paling umum adalah yang terkait dengan search engine. Search engine menggunakan web crawl untuk mengumpulkan informasi mengenai apa yang ada di halaman-halaman web publik. Tujuan utamanya adalah mengumpukan data sehingga ketika pengguna Internet mengetikkan kata pencarian di komputernya, search engine dapat dengan segera menampilkan web site yang relevan.

Ketika web crawl suatu search engine mengunjungi halaman web, ia “membaca” teks yang terlihat, hyperlink, dan konten berbagai tag yang digunakan dalam situs seperti meta tag yang banyak berisi keyword. Berdasar informasi yang dikumpulkan web crawl, search engine akan menentukan mengenai apakah suatu situs dan mengindex informasinya. Website itu kemudian dimasukkan ke dalam database search engine dan dilakukan proses penentuan ranking halaman-halamannya.


Search Engine


image by : encrypted-tbn0.gstatic.com

Mesin pencari atau Search engine adalah program komputer yang dirancang untuk melakukan pencarian atas berkas-berkas yang tersimpan dalam layanan www, ftp, publikasi milis, ataupun news group dalam sebuah ataupun sejumlah komputer peladen dalam suatu jaringan. Search engine merupakan perangkat pencari informasi dari dokumen-dokumen yang tersedia. Hasil pencarian umumnya ditampilkan dalam bentuk daftar yang seringkali diurutkan menurut tingkat akurasi ataupun rasio pengunjung atas suatu berkas yang disebut sebagai hits. Informasi yang menjadi target pencarian bisa terdapat dalam berbagai macam jenis berkas seperti halaman situs web, gambar, ataupun jenis-jenis berkas lainnya. Beberapa mesin pencari juga diketahui melakukan pengumpulan informasi atas data yang tersimpan dalam suatu basisdata ataupundirektori web.

Sebagian besar mesin pencari dijalankan oleh perusahaan swasta yang menggunakan algoritma kepemilikan dan basisdata tertutup, di antaranya yang paling populer adalah Google (MSN Search danYahoo!). Telah ada beberapa upaya menciptakan mesin pencari dengan sumber terbuka (open source), contohnya adalah Htdig, Nutch, Egothor dan OpenFTS.

Mesin pencari web bekerja dengan cara menyimpan informasi tentang banyak halaman web, yang diambil langsung dari WWW. Halaman-halaman ini diambil dengan web crawler — browser web otomatis yang mengikuti setiap pranala/link yang dilihatnya. Isi setiap halaman lalu dianalisis untuk menentukan cara indeks-nya (misalnya, kata-kata diambil dari judul, subjudul, atau field khusus yang disebut meta tag). Data tentang halaman web disimpan dalam sebuah database indeks untuk digunakan dalam pencarian selanjutnya. Sebagian mesin pencari, seperti Google, menyimpan seluruh atau sebagian halaman sumber (yang disebut cache) maupun informasi tentang halaman web itu sendiri.

Selain halaman web, Mesin pencari juga menyimpan dan memberikan informasi hasil pencarian berupa pranala yang merujuk pada file, seperti file audio, file video, gambar, foto dan sebagainya, serta informasi tentang seseorang, suatu produk, layanan, dan informasi beragam lainnya yang semakin terus berkembang sesuai dengan perkembangan teknologi informasi.
Ketika seseorang mengunjungi mesin pencari dan memasukkan query, biasanya dengan memasukkan kata kunci, mesin mencari indeks dan memberikan daftar halaman web yang paling sesuai dengan kriterianya, biasanya disertai ringkasan singkat mengenai judul dokumen dan kadang-kadang sebagian teksnya.
Archiving Web
Adalah proses pengumpulan bagian-bagian dari World Wide Web untuk memastikan informasi tersebut diawetkan dalam arsip bagi para peneliti di masa depan, sejarawan, dan masyarakat umum. Web Archivist biasanya menggunakan web crawler untuk menangkap otomatis karena ukuran besar dan jumlah informasi di Web. Organisasi terbesar web pengarsipan berdasarkan pendekatan bulk crawling adalah Internet Archive yang berusaha untuk mempertahankan sebuah arsip dari seluruh Web.

Web Archive adalah Sebuah file format terkompresi, didefinisikan oleh Java EE standar, untuk menyimpan semua sumber daya yang diperlukan untuk menginstal dan menjalankan aplikasi Web dalam satu file.

Teknik yang paling umum digunakan dalam pengarsipan Web adalah dengan menggunakan web crawler untuk mengotomatisasi proses pengumpulan halaman web. Web crawler biasanya mengakses halaman web dengan cara yang sama seperti yang user biasa lihat pada Web. Contoh pengarsipan web yang menggunakan web crawlers diantaranya adalah :

1. Heritrix



image by : wikipedia.org

Heritrix adalah crawler web yang dirancang untuk keperluan Web Archiving. Heritrix ditulis oleh Internet Archive. Heritrix berlisensi free software dan ditulis dalam bahasa Java. Interface utama dapat diakses menggunakan Web Browser,, ada beberapa baris perintah yang opsional dapat digunakan untuk menginisiasi Crawler.

Heritrix dikembangkan bersama oleh Internet Archive dan perpustakaan nasional Nordic pada awal 2003. Rilis resmi pertama adalah pada bulan Januari 2004, dan telah terus ditingkatkan oleh karyawan dari Internet Archive dan pihak lain yang berkepentingan.

Heritrix bukan crawler utama yang digunakan untuk menjelajah konten untuk koleksi web Internet Archive selama bertahun-tahun. Penyumbang terbesar untuk koleksi adalah Alexa Internet. menjelajah web untuk keperluan sendiri, dengan menggunakan crawler bernama ia_archiver. Alexa kemudian menyumbangkan materi ke Internet Archive. Internet Archive sendiri melakukan crawlingnya sendiri menggunakan Heritrix, tetapi hanya pada skala yang lebih kecil.

Mulai tahun 2008, Internet Archive mulai peningkatan kinerja untuk melakukan Crawling skala luas sendiri, dan sekarang telah mengumpulkan sebagian besar isinya.

2. HTTrack



image by : httrack.com

HTTrack merupakan Web Crawler yang gratis dan bersifat open source, dikembangkan oleh Xavier Roche dan berlisensi di bawah Lisensi GNU General Public License Versi 3. HTTrack memungkinkan pengguna untuk men-download situs World Wide Web dari Internet ke komputer lokal. HTTrack juga dapat mengupdate situs mirror yang ada dan melanjutkan download terputus. HTTrack dikonfigurasi dengan option dan oleh filter (include/exclude), dan memiliki sistem bantuan yang terintegrasi. Ada versi baris perintah dasar dan dua versi GUI (WinHTTrack dan WebHTTrack)

HTTrack menggunakan crawler Web untuk men-download website. Beberapa bagian dari situs web tidak dapat didownload secara default karena protokol exclusion robot dinonaktifkan selama program. HTTrack dapat mengikuti link yang dihasilkan dengan dasar JavaScript dan di dalam Applet atau Flash, tapi bukan kompleks link (dihasilkan dengan menggunakan fungsi atau ekspresi) atau peta gambar server-side.

3. Wget



image by : wikipedia

GNU Wget, seringkali hanya disebut wget, adalah sebuah program komputer sederhana yang mengambil materi dari web server, dan merupakan bagian dari Proyek GNU. Namanya diturunkan dari World Wide Web dan get, konotatif dari fungsi primernya. Program ini mendukung pengunduhan melalui protokol HTTP, HTTPS, dan FTP, protokol berbasis TCP/IP yang paling luas digunakan untuk penjelajahan web.
Fitur-fiturnya meliputi pengunduhan rekursif, konversi pranala untuk peninjauan offline dari HTML lokal, mendukung proxy, dan lebih banyak lagi. Pertama kali muncul pada tahun 1996, dilatarbelakangi oleh ledakan penggunaan Web, menyebabkan penggunaan yang luas di antara para pengguna Unix dan distribusi Linuxterkemuka. Ditulis menggunakan bahasa C portabel, Wget dapat diinstal secara mudah pada sistem mirip-Unix apa saja dan telah diportasi ke beberapa lingkungan, termasuk Mac OS X, Microsoft Windows, OpenVMS danAmigaOS.
Wget digunakan sebagai basis program-program GUI semisal Gwget untuk desktop GNOME. Dirilis di bawah Lisensi Publik Umum GNU v3, Wget adalah perangkat lunak bebas.

Cara kerja Web Archiving
1.    Menemukan Informasi Website lewat crawling web
Bagaimana cara kerja web crawling Google ? Google memiliki software khusus untuk proses perayapan website/blog yang bisa diakses secara umum. Secara sederhana cara kerja web crawler Google menggunakan aplikasi yang disebut Googlebot.
Crawler Googlebot akan merayapi setiap halaman website/blog seperti ketika sobat belajar online membuka link lewat browser, kemudian mengikuti link setiap halaman web dan membawa data dari website/blog tersebut ke server Google.
Proses crawling web oleh googlebot dimulai dari crawling alamat utama web (domain), kemudian ke sitemap (peta situs) yang dibuat oleh pemilik website.
adanya sitemap website akan memudahkan google bot google dalam proses crawling web/blog tersebut.
Pada akhirnya program google bot akan menentukan situs mana yang ramai pengunjung dan selalu diupdate, berapa banyak konten yang ada, untuk menentukan posisinya.
Google tidak menerima bayaran dalam memposisikan website. Website/blog yang menurut mesin pencari google bagus maka akan berada di posisi pertama hasil pencarian Google. Mengapa Google tidak mau menerima bayaran dalam merayapi dan mengindeks website ? Hal ini tentu saja berkaitan dengan manfaat untuk pengguna yang mencari informasi lewat mesin pencari google, karena itu merupakan bisnis utama mesin pencari Google.

2.    Mengorganisasi informasi hasil proses crawling web
Setelah proses crawling web, maka mesin pencari google kemudian memasukkannya dalam daftar indeks Google. Gambaran internet itu ibarat perpustakaan dengan miliaran buku, namun sayangnya tidak mempunyai katalog khusus dan pengarsipan utama. Dari situ, maka google mengumpulkan alamat dan isi halaman-halaman web yang dicrawl oleh google bot kemudian membuat indeks. Dengan begitu mesin pencari google tahu persis bagaimana Google melihat halaman yang bersangkutan.
Gambaran bagaimana google membuat indeks dari miliaran web yang ada di dunia, coba sobat belajar online buka indeks buku yang ada di bagian belakang. Indeks Google juga berisi tentang informasi kata-kata dan lokasi kata tersebut.
Dengan perkembangan web generasi kedua, ditambah dengan html 5 yang memberikan kesempatan kepada developer web untuk membuat web dinamis semakin banyak jenis konten yang harus diindeks google, dari teks, gambar dan video. Google pun juga menyempurnakan pengindekan konten-konten yang ada di internet untuk memahami apa yang diinginkan oleh pencari informasi lewat mesin pencari Google.

3.    Pengaturan crawling pada pemilik website/blog
Walaupun Google dapat merayapi setiap halaman web, namun mesin pencari juga memberikan kebebasan kepada pemilik situs yang tidak ingin websitenya dirambah dan diindeks mesin pencari Google.
Untuk memilih dan memberitahu google bot agar tidak merayapi dan mengindeks halaman sensitif yang berbahaya apabila diakses oleh umum, maka sobat dapat menggunakan file robot.txt. Sobat dapat mengakses Google Webmasters Tool untuk mendapatkan file robots.txt dan mengisi bagian mana yang tidak boleh dirayapi dan diindeks dari website/blog sobat oleh Google crawl



Sumber :
http://en.wikipedia.org/wiki/Web_analytics
http://empatbelast.blogspot.com/2011/04/pengukur-kinerja-situs-web.html
http://clickforgamers.blogspot.com/2013/04/pengukuran-web-crawler-search-engine.html
http://bie-wellca.blogspot.com/2013/04/pengukuran-web-crawler-search-engine.html
http://djuyadi.wordpress.com/2010/03/06/web-crawl-web-spider-web-robot-bot-crawl-automatic-indexer/
http://id.wikipedia.org/wiki/Mesin_pencari_web
http://en.wikipedia.org/wiki/Web_archiving
http://en.wikipedia.org/wiki/Heritrix
http://en.wikipedia.org/wiki/HTTrack
http://id.wikipedia.org/wiki/Wget
http://muhammadyusuf-gunadarma.blogspot.com/2013/05/web-archiving.html

Ekonomi Web



  
Materi Softskill oleh :
Alvi Fajrin
Fajar Rizky
Riyana Wicaksono (56412508)
Teuku Alfian Pase  (57412341)
       
            Dalam pembahasan kali ini masih seputar tentang Tugas Softskill, namun kali ini sesuai pada postingan sebelumnya, bahwa saya ingin melanjutkan pembahasan tentang tugas ini. Berbeda dari pembahasan sebelumnya yang bertemakan Analisis Web, namun dalam pembahasan kali ini, saya bersama teman teman saya ingin membahas tentang Ekonomi Web.

·     Iklan, termasuk lintas laman iklan
Periklanan adalah sumber informasi bagi para konsumen dan sumber kekuatan pasar bagi para pengiklan.Periklanan telah dituduh merugikan masyarakat karena sepertinya ia lebih dari sekedar menjual produk-produk baru ia juga dapat membentuk kecenderungan dan sikap social secara kuat.Denagn intenet sebuah perusahaan dapat menyajikan kombinasi iklan ,informasi,dan hiburan yang berhubungan dengan produk mereka kepada konsumen.Para konsumen mampu mengendalikan penampakan produk pada mereka dan akhirnya memtutuskan apakah mereka ingin lebih mengetahuinya atau bahkan memesannya.Dengan mengetatnya anggaran periklanan pada tahun 1990-an keandalan menjadi lebih penting daripada sebelumnya.Para pengiklan internet mampu mencatat jumlah orang yang benar-benar melihat iklan mereka dan dari awal mengetahui berapa banyak biaya yang dibebani mereka setiap kunjungan situs Web.


Karakteristik Lingkungan Periklanan
• kekuatan lingkungan selalu berubah
• perubahan lingkungan menciptakan ketidakpastian, ancaman, peluang (dalam dinamika periklanan)
• tanggapan terhadap perubahan lingkungan:
* reaktif apabila tdk dpt mengendalikan elemen-2 lingkungan, caranya selalu menyesuaikan diri dgn perkembangan yg ada
* proaktif apabila memiliki sejumlah kendali dan resources, caranya dgn mengambil langkah-2 utk melakukan perubahan yg menghasilkan lingkungan yg lebih kondusif

Iklan Terhadap Pengaruh Ekonomi
1.    Iklan sebagai transaksi atau peristiwa yang ekonomi yang mampu mempengaruhi kehidupan ekonomi masyarakat.
• Iklan sebagai kegiatan jual beli (untuk menyampaikan pesan, pengiklan harus membayar media yang dipilih).
• Memberi keuntungan kepada agen iklan.
• Membuka lapangan kerja.
• Iklan menjaadi salah satu bidang bisnis yang menjanjikan.
• Industri periklanan menjadi salah satu pilihan kerja yang menjanjikan.
• Seiring dicanangkannya industri kreatif, iklan menjadi salah satu profesi bergengsi.
• Saat krisis ekonomi 1998, industri periklanan merupakan satu-satunya industri yang cepat keluar dari keterpurukan.
• Data AC Nielsen: belanja iklan 2001 Rp 9,717 triliun à 2002 Rp 12 triliun (ada kenaikan 200 % dari belanja iklan 1997). Fantastis! Tahun 1997 ada 179 merek yang diiklankan di media utama nasional à Tahun 2000 ada 237 merek (Cakram, Juni 2000). Artinya kalangan industri masih memberikan kepercayaan melakukan promosi produk melalui iklan.
• Periklanan mendatangkan pajak besar bagi daerah.

2.    Dampak (Cakram, Juni 2000). Artinya kalangan industri masih memberikan kepercayaan melakukan promosi .
·  pesan yang ditimbulkan.
·  Meningkatkan pemasaran produk.


·     Pencarian
Pencarian pada ekonomi web pada umunya adalah melalui penjualan online. Penjualan online adalah melakukan aktifitas penjualan dari mencari calon pembeli sampai menawarkan produk atau barang dengan memanfaatkan jaringan internet yang didukung dengan seperangkat alat elektronik sebagai penghubung dengan jaringan internet.

Pengaruhnya: 
  • Kehadiran e-commerce yang terus berkembang lambat laun akan merubah   kebiasaan bertransaksi sebagian masyarakat kita. Para produsen maupun konsumen akan terbiasa menjual maupun membeli produk dan jasa secara online ketimbang melangkahkan kaki ke outlet penjualan. Ruang dan waktu bukan lagi menjadi kendala. Sebuah perusahaan di Indonesia memiliki kesempatan yang sama dengan kalangan bisnis asing untuk menjalin kerjasama atau ingin mengakses pasar mancanegara.
  • seseorang lebih mudah untuk mengembangkan usahanya seperti dengan menjual barang dan jasa via online. Banyak sekali situs yang menyediakan jual beli online. Salah satu yang terbesar adalah TokoBagus(dot)com. Dengan adanya Internet pula kita tidak perlu repot pergi untuk membeli barang yang kita butuhkan. Tinggal pesan saja melalui transaksi ataupun dengan cash.
  • Kemajuan teknologi akan meningkatkan kemampuan produktivitas dunia industri baik dari aspek teknologi industri maupun pada aspek jenis produksi. Investasi dan reinvestasi yang berlangsung secara besar-besaran yang akan semakin meningkatkan produktivitas dunia ekonomi. Di masa depan, dampak perkembangan teknologi di dunia industri akan semakin penting. Tanda-tanda telah menunjukkan bahwa akan segera muncul teknologi bisnis yang memungkinkan konsumen secara individual melakukan kontak langsung dengan pabrik sehingga pelayanan dapat dilaksanakan secara langsung dan selera individu dapat dipenuhi.

      Auctioning dalam pencarian dan online auctions
Online Auction adalah mekanisme pasar online dimana penjual menawarkan produk dan pembeli melakukan penawaran secara berurutan secara kompetitif hingga harga terakhir dicapai. Di Online Auction ini, mereka menggunakan teknologi informasi yang tidak dibatasi oleh jarak dan waktu.

Contoh:
amazone adalah ajang pasar online dunia. Di amazone, kita dapat melakukan transaksi online sebagai penjual atau pembeli.

Didalam Online Auction, menerapkan konsep dynamic pricing, yaitu harga yang berubah berdasarkan pada hubungan penawaran dan permintaan pada waktu tertentu. Ada 4 kategori utama dynamic pricing, yaitu:
1.      Satu pembeli, satu penjual
2.      Satu penjual, banyak pembeli potensial
3.      Satu pembeli, banyak penjual potensial
4.      Banyak penjual, banyak pembeli

Manfaat dari online auction dibagi menjadi 3 bagian, yaitu:
1.    Manfaat bagi penjual
         Meningkatkan pendapatan dengan memperluas pasar dan mempersingkat waktu.
         Menetapkan harga optimal yang ditentukan oleh pasar.
         Meningkatkan hubungan dan loyalitas pelanggan.

2.      Manfaat bagi pembeli
       Kesempatan untuk menemukan barang unik.
       Hiburan bagi pembeli
       Pembeli bisa menawar dari manapun, bahkan dengan telepon selular.

3.    Manfaat bagi auctioner
       Pembelian yang lebih tinggi.
       Pembeli cenderung untuk berkunjung lebih lama dan kembali lebih sering.
       Ekspansi bisnis lelang.

Kekurangannya :
· Kurangnya keamanan,
· Kemungkinan adanya kecurangan,
· Serta terbatasnya partisipan.


Mungkin itu saja berbagi pengetahuan tentang Ekonomi Web, apabila ada kata kata yang salah mohon dimaafkan.


Sumber :