1. WEB CONTENT
Content dalam website adalah segala sesuatu yang dapat dilihat oleh pengunjung baik berupa gambar, tulisan, animasi, video, suara, tombol navigasi dan sebagainya. Jadi jika kita mengunjungi suatu website sebenarnya yang kita kunjungi adalah content. Pengaturan content ini dilakukan pada saat pemograman website (coding), entah itu jenis contentnya, warna, posisi dan sebagainya. Hal inilah yang mendasari perencanaan pembuatan website harus dilakukan sebaik mungkin, karena content-content yang akan ditampilkan pada website baik posisi maupun jenisnya akan ditentukan dari sini.
• Media standard penggunaan web content
Arsitektur Website adalah suatu pendekatan terhadap desain dan perencanaan situs yang, seperti arsitektur itu sendiri, melibatkan teknis, kriteria estetis dan fungsional. Seperti dalam arsitektur tradisional, fokusnya adalah benar pada pengguna dan kebutuhan pengguna. Hal ini memerlukan perhatian khusus pada konten web, rencana bisnis, kegunaan, desain interaksi, informasi dan desain arsitektur web. Untuk optimasi mesin pencari yang efektif perlu memiliki apresiasi tentang bagaimana sebuah situs Web terkait dengan World Wide Web.
• Model pembelajaran generatif
Pengertian Pembelajaran GeneratifPembelajaran Generatif (PG) merupakan terjemahan dari Generative Learning (GL). Menurut Osborno dan Wittrock dalam Katu (1995.b:1), pembelajaran generatif merupakan suatu model pembelajaran yang menekankan pada pengintegrasian secara aktif pengetahuan baru dengan menggunakan pengetahuan yang sudah dimiliki mahasiswa sebelumnya. Pengetahuan baru itu akan diuji dengan cara menggunakannya dalam menjawab persoalan atau gejala yang terkait. Jika pengetahuan baru itu berhasil menjawab permasalahan yang dihadapi, maka pengetahuan baru itu akan disimpan dalam memori jangka panjang.2. Landasan Teoritik dan Empirik Pembelajaran GeneratifPembelajaran generatif memiliki landasan teoritik yang berakar pada teori-teori belajar konstruktivis mengenai belajar dan pembelajaran.
• Model Retorika
Retorika berarti kesenian untuk berbicara baik (Kunst, gut zu reden atau Ars bene dicendi), yang dicapai berdasarkan bakat alam (talenta) dan keterampilan teknis (ars, techne), Dewasa ini retorika diartikan sebagai kesenian untuk berbicara baik, yang dipergunakan dalam proses komunikasi antarmanusia. Pada bahasa informatika model ini berarti berbicara antarmuka melalui jaringan internet melalui website seperti: YM, Facebook, Skype, dll.
2. WEB ANNOTATION
Tags
Tags atau Keywords adalah penting dalam pemasaran di Internet , dengan ini kemungkinan peselancar mangunjungi website bisa diarahkan, dan sesuai dengan keyword “Informatika” maka anda dapat membandingkan dari bermacam-macam search engine atau social bookmark. Berikut ini adalah tinjauan bermacam-macam search engine yang merujuk pada keyword atau tag yang sama yaitu “Informatika dan yang berkaitan”. Search engine itu antara lain : Google Blog Search, Yahoo Search , Technorati Tags, Del.icio.us Tags, LiveJournal Tags, 43 Things Tags, Buzzwords (Buzznet) Tags.
Metadata
Metadata biasa didefinisikan sebagai “data tentang data” atau dapat juga disebut dengan “informasi mengenai suatu data”. Metadata mendeskripsikan isi, kualitas, kondisi, dan karakteristik lainnya mengenai suatu data yang ditulis dengan format standard.
Metadata memiliki fungsi yang sama seperti katalog yaitu untuk:
1. mengidentifikasi suatu data
2. mengelompokkan data yang serupa
3. membedakan data menurut kriteria tertentu
4. memberikan informasi penting berkaitan dengan data
Rich Snippets
Rich Snippets adalah data tambahan dari blog/postingan kamu yang akan ikut ditampilkan pada halaman mesin pencarian (SERP). Berbagai data yang bisa dimasukkan seperti rating, vote, author, tanggal, file audio, resep masakan, produk (harga, stok, dsb), event, dan banyak yang lainnya.
3. Web dan Perilaku Penggunaan
Adalah sebuah hubungan antara manusia dan komputer yang mempunyai karakteristik tertentu untuk mencapai suatu tujuan tertentu dengan menjalankan sebuah sistem yang bertopengkan sebuah antarmuka (interface).
• Perilaku Navigasi
pada suatu situs (jual beli khususnya) penggunaan navigasi yang baik sangat penting untuk dilakukan bagi para pembuat online. Para pembuat situs website tersebut harus bisa membuat suatu navigasi agar pengunjung situs tersebut tidak bosan dengan melihatnya. Ada dua tipe navigasi. Yang pertama adalah yang standar, yang memberikan overview dan peta penjelajahan situs. Biasanya bisa ditemukan secara konsisten baik di bagian atas, samping atau footer. Yang kedua adalah navigasi versi advance. Jenis ini masih bertujuan memberikan alat untuk menelusuri situs, namun dengan cara lebih spesifik. Misal lewat kategori, pengarang, produsen, range harga, dan lain lain. Navigasi semacam ini sebenarnya mirip dengan fitur search namun sudah diberi antar muka yang lebih intuitif. Alih-alih model kotak isian teks kosong, calon pembeli diberi beberapa nilai default yang bisa dipakai lewat link yang disediakan. Lebih keren lagi, calon pembeli bisa melakukan penelusuran bertingkat, misalnya: kategori buku, di-drilldown dengan topik IT dan Marketing, di-tune lagi pada level berikutnya dengan range harga 100 ribu sampai 400 ribu, lalu difinalisasi dengan reviewed by NavinoT. Calon pembeli pun akan sampai pada apa yang benar-benar dia cari.
- Permasalah dalam kaitan dengan :
1. Para pemakai interface website tidak mengetahui daerah atau dalam hal ini lembaran- lembaran pada situs.
2. Struktur lokasi tidak dapat ditemukan.
- Dn Hl-hal yang dibutuhkan pada pemakai interface :
1. Tabel Index (Peta Lokasi)
2. Index
3. Navigasi
4. Fasilitas Pencarian (Search)
• Perilaku Pencarian
Fitur pencarian internal tentunya telah di desain dengan batasan tertentu. Ketika situs Anda tumbuh tentunya Anda akan semakin tahu pola pemakaian oleh pengguna. Termasuk di dalamnya adalah pola pencarian dalam rangka mendapatkan pengalaman terbaik dalam pemanfaatan situs.
4. Web merefleksikan perilaku sosial
web pun dapat merefleksikan perilaki sosial masyarakatnya, dengan adanya alat pengukur banyaknya orang/ IP address yang mengakses web tersebut dapat menunjukkan bahwa web tersebut menarik perhatian masyarakat dan pastinya akan mempengaruhi sikap sosial seaeoramg contohnya seseorang yang sering mengakaksea situs belanja online akan mempunyai gaya hidup yang boros karena tergiur oleh harga yang lebih murah daripada conter ataupun diskon-diskon yang ada.
5. Web mempengaruhi perilaku sosial
web sebagai salah satu bentuk teknologi dan informasi yang sangat populer di masyarakat menjadi salah satu pemicu yang mempengaruhi perilaku sosial masyarakat. ada dua dampak yang dimbulkan yaitu dampak positif dan dampak negatif, dampak postifnya adalah :
• lebih cepat dan mudah dalam meyelesaikan pekerjaan dalam hal ini berarti membantu pekerjaan manusia
• dapat berkomunikasi dengan baik tidak peduli jarak dan waktu sehingga membuat manusia saling berinteraksi dengan mudah
• mudah mencari informasi serta berbelanja online pun dapat dilakukan
dampak negatif :
• munculnya banyak penipu yang memanfaatkan internet
• adanya plagiatisme
• munculnya pencurian/hack
• munculnya banyak konyen-konten dewasa yang seharusnya tidak dilihat anak kecil dapat merusak mental
• bahaya kesehatan akibat radiasi yang ditimbulkan oleh komputer itu sendiri
STRUKTUR WEB
I. Link Structure, small world
Sebuah jaringan kecil dunia adalah jenis grafik matematika di mana sebagian besar node tidak tetangga satu sama lain, tetapi kebanyakan node dapat dicapai dari setiap lain oleh sejumlah kecil hop atau langkah-langkah. Secara khusus, jaringan-dunia kecil didefinisikan sebagai jaringan di mana L jarak khas antara dua node yang dipilih secara acak (jumlah langkah yang diperlukan) tumbuh secara proporsional dengan logaritma dari jumlah node N dalam jaringan, yaitu:
Dalam konteks jaringan sosial, hasil ini dalam fenomena dunia kecil dari orang asing yang dihubungkan oleh saling kenalan. Banyak grafik empiris dengan baik dimodelkan oleh jaringan kecil dunia. Jaringan sosial , konektivitas dari internet , wiki seperti Wikipedia, dan jaringan gen semua karakteristik jaringan-dunia kecil pameran.
II. Social Networking
Social Networking adalah sebutan lain terhadap website community. Social Networking adalah tempat untuk para netter berkolaborasi dengan netter lainnya. Bentuk kolaborasi antara lain adalah saling bertukar pendapat/komentar, mencari teman, saling mengirim email, saling memberi penilaian, saling bertukar file dan yang lainnya. Intinya dari situs social networking adalah interaktifitas. Contoh dari social networking yang sering digunakan: Facebook, Friendster, MySpace, Twitter, dll.
III. Blogosphere
Blogosphere adalah suatu interkoneksi / interaksi antar blog yangg tergabung dalam sebuah domain dan domain tersebut tergabung dalam lingkup jaringan / internet, Contohnya, Technorati, Top of Blogs, Blog Top site, blogspot termasuk juga dengan blog directory, sebuah blogosphere biasanya diklasifikasikan menurut jenis postingan, ada berupa blog berita, blog hoby , blog forum, blog komunitas, blog iformasi dll.Istilah Blogosphere muncul pada tahun 1999 dan mulai populer tahun 2002, walaupun lahir dari sebuah lelucon keberadaan Blogosphere kini menjadi sebuah ikon bagi blogger, banyak blogger yang menganggap belum lengkap bila seorang blogger belum tergabung ke dalam komunitas Blogosphere hingga jadi ikon eksistensinya dalam dunia blogging.( apa benar begitu..??? )
Manfaat Blogosphere ini tak lepas kaitannya dari SEO ( Search Engine Optimization ), layaknya sebuah komunitas keberadaan Blogosphere memberikan jalinan komunikasi antar blogger, membuat akses posting yg popular dan menjadi sebuah trend, atau mengupdate suatu bahasa dan kosakata untuk sebuah komunitas blog sehingga menjadi kepopuleran tersendiri.
IV. Analisis Web
Tools-tools pengukur analisis web :
1. SEO (Search Engine Optimization) adalah mengoptimalkan sebuah blog/web dengan memanfaatkan mesin pencari dan mendapatkan peringkat yang tinggi di halaman pertama mesin pencari dengan menggunakan keyword agar dibanjiri pengunjung yang datang dari search engine.
2. GTmetrix merupakan sebuah situs dimana kita dapat mengetahui berbagai hal yang membuat blog/web kita lambat dan performa blog/web ketika akses, tersedia secara gratis dengan mengunakan yahoo Yslow dan Google page speed sebagai mesin penganalisa dan menampilkan hasil juga rekomendasi yang harus dilakukan.
Kelebihan dari GTmetrix :
1. dapat membandingkan beberapa URL secara bersamaan
2. dapat menjadwalkan pengecekan web/blog secara otomatis dan dapat menyimpan laporan
Kekurangan dari GTmetrix:
1. dalam penggunaan GTmetrix harus menggunakan koneksi internet yang cepat.
V. Crawler
Adalah proses pengambilan sejumlah besar halaman web dengan cepat kedalam satu tempat penyimpanan lokal dan mengindexnya berdasarkan sejumlah kata kunci. yakni sebuah komponen utama dalam sebuah Search Engine (Mesin Pencari), sebagai Aplikasi Information Retrieval Modern.
Cara kerja: suatu data dikumpulkan oleh web crawler kemudian digunakan oleh mesin pencari untuk memberikan link situs yang relavan bagi pengguna ketika mereka melakukan pencarian. web crawler menangkap banyak hal yang berbeda ketika mereka memindai situs. Informasi diperoleh dari metatag, konten itu sendiri dan link. untuk mendapatkan ide yang baik dari apa situs adalah tentang. Crawler digunakan sebagai scan situs anda. jika ada bagian-bagian tertentu dari situs yang seharusnya tidak diindeks, mereka harus mencatat dalam file ini. setelah mendapat instruksi crawler dari file ini, akan mulai dengan merangkak halaman situs anda.
Ini kemudian akan melanjutkan ke indeks konten, dan kemudian akhirnya akan mengunjungi link di situs Anda. Jika crawler mengikuti link dan tidak menemukan halaman, maka akan dihapus dari indeks. Informasi yang dikumpulkan dari situs Anda kemudian disimpan dalam database, yang kemudian digunakan oleh mesin pencari.
Beberapa Contoh Web Crawler :
1. Teleport Pro
Salah satu software web crawler untuk keperluan offline browsing. Software ini sudah cukup lama popular, terutama pada saat koneksi internet tidak semudah dan secepat sekarang. Software ini berbayar dan beralamatkan di http://www.tenmax.com.
2. HTTrack
Ditulis dengan menggunakan C, seperti juga Teleport Pro, HTTrack merupakan software yang dapat mendownload konten website menjadi sebuah mirror pada harddisk anda, agar dapat dilihat secara offline. Yang menarik software ini free dan dapat di download pada website resminya di http://www.httrack.com
3. Googlebot
Merupakan web crawler untuk membangun index pencarian yang digunakan oleh search engine Google. Kalau website anda ditemukan orang melalui Google, bisa jadi itu merupakan jasa dari Googlebot. Walau konsekuensinya, sebagian bandwidth anda akan tersita karena proses crawling ini.
4. Yahoo!Slurp
Kalau Googlebot adalah web crawler andalan Google, maka search engine Yahoo mengandalkan Yahoo!Slurp. Teknologinya dikembangkan oleh Inktomi Corporation yang diakuisisi oleh Yahoo!.
5. YaCy
Sedikit berbeda dengan web crawler lainnya di atas, YaCy dibangun atas prinsip jaringan P2P (peer-to-peer), di develop dengan menggunakan java, dan didistribusikan pada beberapa ratus mesin computer (disebut YaCy peers). Tiap-tiap peer di share dengan prinsip P2P untuk berbagi index, sehingga tidak memerlukan server central. Contoh search engine yang menggunakan YaCy ialah Sciencenet, untuk pencarian dokumen di bidang sains.
VI. Search Engine
Adalah program komputer yang dirancang untuk melakukan pencarian atas berkas-berkas yang tersimpan dalam layanan www, ftp, publikasi milis, ataupun news group dalam sebuah ataupun sejumlah komputer peladen dalam suatu jaringan. Search engine merupakan perangkat pencari informasi dari dokumen-dokumen yang tersedia. Hasil pencarian umumnya ditampilkan dalam bentuk daftar yang seringkali diurutkan menurut tingkat akurasi ataupun rasio pengunjung atas suatu berkas yang disebut sebagai hits. Informasi yang menjadi target pencarian bisa terdapat dalam berbagai macam jenis berkas seperti halaman situs web, gambar, ataupun jenis-jenis berkas lainnya. Beberapa mesin pencari juga diketahui melakukan pengumpulan informasi atas data yang tersimpan dalam suatu basisdata ataupun direktori web.
Sebagian besar mesin pencari dijalankan oleh perusahaan swasta yang menggunakan algoritma kepemilikan dan basisdata tertutup, di antaranya yang paling populer adalah Google (MSN Search dan Yahoo!). Telah ada beberapa upaya menciptakan mesin pencari dengan sumber terbuka (open source), contohnya adalah Htdig, Nutch, Egothor dan OpenFTS.
contoh-contoh search engine :
1. Google
google muncul pada akhir tahun 1997, dimana google memasuki pasar yang telah diisi oleh para pesaing lain dalam penyediaan layanan mesin pencari, seperti Yahoo, Altavista , HotBot, Excite, InfoSeek dan Lycos. dimana perusahaan-perusahaan tersebut mengklaim sebagain perusahaan tabg bergerak dalam bidang layanan pencarian internert. Hingga akhirnya Google mampu menjadi sebagai penyedia mesin pencari yang cukup diperhitungkan didunia.
2. Yahoo
Yahoo raja directori di internet disamping para pengguna internet melihat DMOZ serta LookSma berusaha menurunkan nya diposisi puncak tersebut. akhir-akhir ini telah tumbuh secara cepat dalam ukurannya mereka pun sudah memliki harga sehingga mudah untuk memasukinya, dengan demikian mendapatkan sebuah daftar pada direktori yahoo memang memiliki nilai yang tinggi.
VII. Web Archiving
adalah proses mengumpulkan bagian dari WWW dan memastikan koleksi tersebut diawetkan dalam suatu arsip, misalnya situs arsip, untuk diakses peneliti, sejarawan, dan masyarakat umum pada masa datang. Besarnya ukuran Web membuat arsiparis web umumnya menggunakan web crawlers untuk pengumpulan secara otomatis. Organisasi pengarsip web terbesar yang menggunakan ancangan perangkak web ini adalah Internet Archive yang berupaya memelihara arsip dari seluruh Web. Perpustakaan nasional, arsip nasional, dan berbagai konsorsium organisasi lain juga terlibat dalam upaya pengarsipan konten Web yang memiliki nilai penting bagi mereka. Perangkat lunak dan layanan komersial juga tersedia bagi organisasi yang ingin mengarsipkan konten web mereka sendiri untuk berbagai keperluan.
Cara kerja web archiving
A. Remote Harvesting
Merupakan cara yang plaing umum dalam web archiving dengan menggunkana teknik web crawlers yang secara otomatis melakukan proses pengumpulan halaman web. Metode yang digunakan web crawler untuk mengakses halaman web sama semeprti user mengakses halaman web menggunakan wob browser. Contoh web crawler yang digunakan dalam web archiving seperti :
• Heritrix
• HTTrack
• Wget
B. On-Demand
Ada banyak layanan yang dapat digunakan sebagai sumber archive web "on-demand", menggunakan teknik web crawling. Contohnya seperti:
• Aleph Archives
• archive.is
• Archive-It
• Archivethe.net
• Compliance WatchDog by SiteQuest Technologies
• freezePAGE snapshots
• Hanzo Archives
• Iterasi
• Nextpoint
• Patrina
• PageFreezer
• Reed Archives
• Smarsh Web Archiving
• The Web Archiving Service
• webEchoFS
• WebCite
• Website-Archive.com
C. Database archiving
Databasa Archiving mengacu pada metode untuk menarsipkan konten database-driven websites. Hal ini biasanya memerlukan ekstraksi konten database ke standard schema, sering menggunakan XML. Setelah disimpan dalam format standar, konten yang diarsipkan dari beberapa databse dapat tersedia untuk diakses dengan menggunakan single access system. Motode ini digunkanan seprti pada DeepArc dan Xinq masiing masing dikembangkan oleh Bibliothèque nationale de France dan National Library of Australia.
D. Transactional archiving
Transactional archiving merupakan event-driven yang mengumpulkan transaksi yang berlangsung antara web server dan web browser. Hal ini terutama digunakan untuk menjamin keaslian dari isi suatu website, pada tanggal tertentu. Hal ini sangatlah penting untuk organisasi atau perusahaan yang perlu mematuhi persyaratan hukum atau peraturan untuk mengungkapkan dan mempertahankan informasi.
Sistem yang digunakan pada transactional archiving biasanya beroperasi dengan memeriksa setiap permintaan HTTP dan respon dari web server, menyaring setiap aktifitas untuk menghilangkan konten yang duklikat dan secara permanen disimpan sebagai bitstreams. Sebuah sistem transactional archiving membutuhkan instalasi perangkat lunak pada web server, dan karena hal itu maka metode ini tidka dapat mengumpulkan konten dari remote website.
Sumber:
http://ichaartikel.wordpress.com/pengertian-content-web-database/
http://getuk.wordpress.com/2007/02/15/tags-dan-keywords/
http://xn--nisarengga-9d1g.dazzle.co.id/2011/12/cara-memasang-rich-snippet-di-blogspot.html
http://bakhrilapanbelas.blogspot.com/2013/06/web-content-web-dan-perilaku.htmlhttp://media.kompasiana.com/buku/2013/05/06/model-pembelajaran-generatif--553464.html
http://communication4ourlife.blogspot.com/2012/10/bagan-periode-perkembangan-ilmu.html
http://febrianiwulandari12.blogspot.com/2013/06/web-content-web-dan-perilaku-penggunaan_29.html
http://anggiyulianto.blogspot.com/2013/07/web-content-web-prilaku-penggunaan.html
Tidak ada komentar:
Posting Komentar