· Struktur
website
Yang
paling penting ketika membuat sebuah situs web adalah desain konseptual, atau
lebih tepatnya penampilan. Selain teks, situs itu sendiri juga harus memiliki
grafis yang sangat baik, grafis harus dirancang sedemikian rupa sehingga ketika
seseorang mengunjungi situs pertama melihat tata letak grafis nya. Dari latar
belakang, header, konten footer dan semua harus diperlakukan sebagai desain web
grafis adalah seni menciptakan sebuah website itu sendiri harus terlebih dahulu
dari semua terlihat sangat bagus. Dalam program Adobe CS5 Fireworks, Anda dapat
melakukan penampilan grafis seluruh website Anda. Setelah Anda mendapatkan ide
segera, dan kadang-kadang baginya untuk menjadi dan satu hari. Segala sesuatu
yang Anda bisa memikirkan, dan segera menarik lebih ditarik template Anda akan
mendapatkan yang asli.
· Social
Network
Jejaring
sosial adalah suatu struktur sosial yang dibentuk dari simpul-simpul (yang
umumnya adalah individu atau organisasi) yang dijalin dengan satu atau lebih
tipe relasi spesifik seperti nilai, visi, ide, teman, keturunan, dll.
Analisis
jaringan jejaring sosial memandang hubungan sosial sebagai simpul dan ikatan.
Simpul adalah aktor individu di dalam jaringan, sedangkan ikatan adalah
hubungan antar aktor tersebut. Bisa terdapat banyak jenis ikatan antar simpul.
Penelitian dalam berbagai bidang akademik telah menunjukkan bahwa jaringan
jejaring sosial beroperasi pada banyak tingkatan, mulai dari keluarga hingga
negara, dan memegang peranan penting dalam menentukan cara memecahkan masalah,
menjalankan organisasi, serta derajat keberhasilan seorang individu dalam
mencapai tujuannya.
Dalam
bentuk yang paling sederhana, suatu jaringan jejaring sosial adalah peta semua
ikatan yang relevan antar simpul yang dikaji. Jaringan tersebut dapat pula
digunakan untuk menentukan modal sosial aktor individu. Konsep ini sering
digambarkan dalam diagram jaringan sosial yang mewujudkan simpul sebagai titik
dan ikatan sebagai garis penghubungnya.
· Blog
Blog
merupakan singkatan dari web log adalah bentuk aplikasi web yang menyerupai
tulisan-tulisan (yang dimuat sebagai posting) pada sebuah halaman web umum.
Tulisan-tulisan ini seringkali dimuat dalam urut terbalik (isi terbaru dahulu
baru kemudian diikuti isi yang lebih lama), meskipun tidak selamanya demikian.
Situs web seperti ini biasanya dapat diakses oleh semua pengguna Internet
sesuai dengan topik dan tujuan dari si pengguna blog tersebut.
· Pengukuran
web
Di
bawah ini ada beberapa tools yang digunakan untuk mengukur website dari segi
kecepatan akses dan performanya, serta mengukut banyaknya pengunjung suatu
website, berikut ini penjelasan mengenai beberapa tools yang digunakan untuk
mengukur kecepatan akses website.
1.
Pingdom Tools merupakan sebuah alat ukur kecepatan website dapat di akses,
nilai dari sebuah website, dan berapa ukuran dari sebuah website
tersebut. Beberapa kelebihannya di kategorikan sebagai berikut :
1.Performance
Grade : melihat nilai kecepatan performa halaman web, dari akses DNS, browser
cache, combine external css dan lain-lain.
2.Waterfall
: melihat detail kecepatan akses ketika membuka halaman web, dari gambar bahkan
sampai seberapa cepat script tersebut dapat di akses.
3.Page
Analysis : melihat detail analisa halaman web.
4.History
: melihat detail akses dari beberapa hari lalu.
Kekurangan
yang terdapat pada tools ini, sama seperti tools alat ukur akses web pada
umumnya yaitu Membutuhkan akses internet yang stabil, karena tidak mungkin kita
bisa mengukur kecepatan akses suatu website kalau akses internet kita terhadap
website tersebut tidak stabil/berjalan dengan baik.
2.
GTmetrix adalah website untuk menganalisa kecepatan web yang tersedia
secara gratis, dengan menggunakan google page speed dan Yahoo Yslow sebagai
analyze engine dan untuk menampilkan hasil serta rekomendasi yang harus
dilakukan.
Dengan
GTmetrix juga dapat membandingkan beberapa URL sekaligus dan jika mendaftar
sebagai anggota maka dapat:
1.Melihat
tes sebelumnya untuk membandingkan hasilnya
2.Menjadwalkan
cek website secara otomatis
3.Menyimpan
laporan
4.Memilih
hasil laporan untuk ditampilkan kepublic atau tidak
Kelebihan
GTmetrix :
1.Dapat
menggunakan google page speed dan YSLOW sebagai analyze engine
2.Dapat
membandingkan beberapa URL sekaligus
3.Menjadwalkan
cek website secara otomatis
4.Dapat
menyimpan laporan
5.Memilih
hasil laporan untuk ditampilkan kepublic atau tidak.
Kekurangan
GTmetrix :
1.Jika
menggunakan GTmetrix harus menggunakan internet yang cepat.
3.
Alexa Rank
Alexa
Internet, Inc. adalah perusahaan yang berbasis di California yang
mengoperasikan situs yang menyediakan informasi mengenai banyaknya pengunjung
suatu situs dan urutannya. Alexa Internet didirikan pada tahun 1996 oleh
Brewster Kahle dan Bruce Gilliat. Cara kerja Alexa rank Alexa memberikan
peringkat ke sebuah situs berdasarkan jumlah pengunjung unik. Semakin rendah
alexarank dari situs berarti situs memiliki sedikit pengunjung unik.Jadi jika
Anda bisa mendapatkan lebih banyak traffic ke situs Anda, Anda akan mendapatkan
lebih rendah alexa rank.
Kelemahan
Alexa:
1.Jika
pengguna internet (pengakses situs anda tidak menginstal Alexa Toolbar di
browsernya) maka sekalipun ada 1000 pengunjung situs anda dalam sehari,
Alexa akan tetap menilai situs anda tidak ada pengunjungnya.
2.Jika
dalam sehari ada yang mengakses situs anda 20 kali dengan alamat
IP(Internet protocol) yang sama, maka akan dianggap situs anda hanya
dikunjungi oleh 1 satu orang hanya dapat poin 1, akan berbeda jika situs
anda dikunjungi oleh 20 orang dengan alamat IP berbeda (unik) maka situs
anda akan memperoleh nilai 20 (nilai ini hanya pengandaian, Alexa
mempunyai formula sendiri dalam menentukan nilai sebuah web) .
Kelebihan
Alexa :
1.Alexa
rank akan menampilkan tingkat popularitas dari sebuah situs web yang
dibandingkan dengan web milik kita,termasuk jangkauan,tampilan halaman,dan
masih banyak lagi.
2. Pencarian
analisa akan menampilkan kepada kita yang merupakan syarat untuk kita untuk
berkompetisi untuk mendapatkan sebuah traffic 3.Data pengunjung akan
menampilkan kepada kita apa yang menarik dari website kita yang dilihat oleh
pengunjun – pengunjung website kita 4.Data clickstream akan menampilkan kepada
kita sebagai pemilik website dimana dalam mendapatkan traffic dari program keanggotaan
dan kemitraan.
· Search
Engine
Mesin
pencari atau Search engine adalah program komputer yang dirancang untuk
melakukan pencarian atas berkas-berkas yang tersimpan dalam layanan www, ftp,
publikasi milis, ataupun news group dalam sebuah ataupun sejumlah komputer
peladen dalam suatu jaringan. Search engine merupakan perangkat pencari
informasi dari dokumen-dokumen yang tersedia. Hasil pencarian umumnya
ditampilkan dalam bentuk daftar yang seringkali diurutkan menurut tingkat
akurasi ataupun rasio pengunjung atas suatu berkas yang disebut sebagai hits.
Informasi yang menjadi target pencarian bisa terdapat dalam berbagai macam
jenis berkas seperti halaman situs web, gambar, ataupun jenis-jenis berkas
lainnya. Beberapa mesin pencari juga diketahui melakukan pengumpulan informasi
atas data yang tersimpan dalam suatu basisdata ataupun direktori web.
Sebagian
besar mesin pencari dijalankan oleh perusahaan swasta yang menggunakan
algoritma kepemilikan dan basisdata tertutup, di antaranya yang paling populer
adalah Google (MSN Search dan Yahoo!). Telah ada beberapa upaya menciptakan
mesin pencari dengan sumber terbuka (open source), contohnya adalah Htdig,
Nutch, Egothor dan OpenFTS
· Web
Arsip
Pengarsipan
web merupakan salah satu bagian dari Portal Web Perpustakaan Digital Nasional
RI. Pengarsipan web adalah proses mengumpulkan cuplikan-cuplikan website dan
memastikan koleksi tersebut terpelihara dalam satu situs web arsip. Pengarsipan
web dilaksanakan untuk memenuhi kepentingan peneliti, sejarawan, dan publik di
masa depan. Sehubungan dengan ukuran Web yang masif, maka digunakan program
aplikasi web crawler yang bekerja secara otomatis untuk mengembangkan koleksi
arsip situs web. Situs web yang diarsipkan utamanya yang memiliki content ilmiah
atau mengemukakan sisi intelektualitas suatu objek yang dikemukakan melalui
media situs web.
Tujuan
utama dibangunnya Perpustakaan Digital Nasional adalah mewujudkan koleksi
nasional yang dapat diakses secara cepat, akurat dan merata oleh pemustaka.
Secara strategis, tujuan pembangunan Perpustakaan Digital Nasional adalah:
1.Meningkatkan
akses ke sumberdaya informasi tersedia dan layanan perpustakaan yang
diselenggarakan oleh seluru perpustakaan yang tergabung dalam jaringan
(resource sharing);
2.Mempromosikan
pemahaman dan kesadaran antarbudaya dalam lingkup nasional, menyediakan sumber
belajar, mendorong ketersediaan bahan pustaka dan informasi yang mengandung
nilai budaya setempat (local content);
3.Melestarikan
sumber informasi tentang Indonesia;
4.Mendukung
penelitian ilmiah melalui pemanfaatan akses Internet.
· Crawler
Focused
Web Crawler merupakan suatu web crawler yang bertujuan secara selektif
mencari halaman-halaman web yang relevan dengan himpunan topik tertentu yang
telah didefinisikan sebelumnya sehingga crawler tidak mencari seluruh web
secara mendalam. Focused Crawler memanfaatkan aturan-aturan keputusan
berdasarkan pada analisis isi, struktur link dan teks anchor untuk menjaga agar
crawler fokus pada topik tertentu, seperti ”bersepeda” atau ”HIV”. Di sisi
lain, web crawler juga dapat difokuskan pada target format dokumen atau
non-dokumen tertentu (PDF, Doc, audio dan video).
Heuristik
berdasarkan 4 hipotesis dapatb dilibatkan untuk membangun suatu focused crawler
terhadap jenis-jenis media terterntu. Keempat hipotesis tersebut adalah (H1)
ekstensi file dari bagian FILE dari suatu URI menunjukkan jenis media dari file
tersebut. (H2) komponenPATH dari suatu URI menunjukkan jenis media dari file
tersebut. (H3) file header Content-type menunjukkan jenis media dari file. (H4)
Posisi dari link did alam suatu dokumen HTML menunjukkan jenis media dari
target link.
Kinerja
dan efisiensi dari suatu focused crawler sangat ditentukan oleh strategi untuk
menentukan urutan dari pemrolehan (retrieval) halaman-halaman web. Telah ada
suatu topical crawler terintegrasi bernama AuToCrawler yang terdiri dari modul
spesifikasi ketertarikan pengguna yang menghubungkan pengguna ke search engine
untuk mengidentifikasi contoh halaman target dan kata kunci untuk menetapkan
topik. AutoCrawler mengurutkan daftar URL dengan mengkombinasikan fitur dari
pendekatan grafik conteks yang diintegrasikan denganpredictor yang mampu
mempelajari isi teks, teks anchor, token-token URL dan kata kunci). Strategi
BFS, tunnelling dan relevance feedback juga digunakan untuk mengatur fokus
penelusuran selama proses crawling.
Kemudian
juga telah ada focused crawler bernama Topic-based Intelligent Crawler
(TIC) . Pada TIC setiap halaman web baru yang didownload oleh crawler dibandingkan
dengan seed untuk mengetahui relevan tidaknya halaman baru dengan suatu topik.
Satu siklus lengkap dari proses ini terdiri dari empat tahapan penting. Pertama
dilakukan identifikasi terhadap halaman-halaman hub yang berasosiasi dengan
halaman seed. Kedua, halaman seed dan hub-hubnya dibersihkan dan kemudian
informasi teks murni di dalamnya diekstrak. Ketiga adalah mengidentifikasi
topik untuk setiap halaman dan langkah terakhir adalah menemukan hub-hub dengan
topik yang mirip dengan halaman seed tersebut.
Focused
web crawler berbasis ontology juga telah ada, sebagian besar bekerja dengan
mengestimasi isi semantik dari suatu URL berdasarkan pada suatu ontology
bergantung domain, dalam rangka mendukung metode yang digunakan untuk
menentukan prioritas antrian URL. Crawler memelihara suatu antrian URL yang
telah dikunjungi pada setiap tingkatan, dan kemudian memilih dari antrian ini,
URL berikutnya untuk dikunjungi berbasarkan pada ranking konseptual dari
halaman pada level tersebut diperoleh dari ontology domain. Crawler yang
dibangun untuk suatu domain khusus tentu tidak dapat digunakan untuk menghimpun
halaman-halaman dari domain lain.
sumber : http://www.webdnevnik.com/id/izrada-web-stranica/web-dizajn/434-web-struktura-struktura-web-stranice-ureivanje-web-stranice.html
No comments:
Post a Comment