Escolar Documentos
Profissional Documentos
Cultura Documentos
Intelligent Agents
Opim S Sitompul
Outline
Agen dan lingkungan Rasionalitas PEAS (Performance measure, Environment, Actuators, Sensors) Jenis-jenis Lingkungan Jenis-jenis Agen
Agent
Agent adalah sesuatu yang dapat mengesan (perceiving) lingkungan (environment) nya melalui sensors dan bertindak (acting) terhadap lingkungan tersebut melalui actuators Agen manusia: mata, telinga, dan organ tubuh lain untuk sensor; tangan, kaki, mulut, dan bagian tubuh lain untuk actuators Agen robotik: kamera dan infrared range finders untuk sensors; berbagai macam motor untuk actuators
Fungsi agen memetakan dari sejarah persepsi ke dalam tindakan (actions): [f: P* A]
Program agen berjalan pada arsitektur fisik untuk menghasilkan f agen = arsitektur + program
4
Vacuum-cleaner world
Percepts: location and contents, e.g., [A,Dirty] Actions: Left, Right, Suck
5
A vacuum-cleaner agent
Sekuen Persepsi [A, Clean] [A, Dirty] Tindakan Right Suck
[B, Clean]
[B, Dirty]
Left
Suck
Right
Suck Right Suck
6
A vacuum-cleaner agent
Pertanyaan:
Keadaan suatu agen dimaksudkan sebagai alat untuk menganalisis sistem, bukan karakterisasi mutlak yang membagi dunia menjadi agen dan non-agen.
7
Agen rasional adalah sesuatu yang melakukan hal yang benarsecara konseptual, setiap entri tabel bagi fungsi agen terisi dengan benar. Apa arti melakukan hal yang benar? Jawab: dengan mempertimbangkan konsekwensi dari perilaku si agen.
Ketika satu agen diletakkan dalam sebuah lingkungan, si agen menghasilkan satu deretan tindakan sesuai dengan persepsi yang diterimanya. Deretan tindakan ini menyebabkan lingkungan itu berubah ke sederetan keadaan. Jika deretan ini dikehendaki, maka si agen bertindak dengan baik. Hal dikehendaki ini diperoleh melalui sebuah performance measure yang mengevaluasi sederetan keadaan lingkungan tertentu.
Agen rasional
Sebuah agen rasional haruslah mengarah kepada lakukan hal yang benar", berdasarkan kepada apa yang dapat dipahaminya dan tindakan yang dapat dilakukannya. Tindakan yang benar adalah tindakan yang akan menyebabkan agen tersebut paling berhasil Pengukuran Performance: Sebuah kriteria objektif untuk keberhasilan sebuah perilaku agen Mis., ukuran performance dari sebuah agen vacuumcleaner dapat berupa besarnya jumlah debu yang dibersihkan, jumlah waktu yang dihabiskan, jumlah listrik yang dikonsumsi, jumlah kebisingan yang dihasilkan, dll.
10
Rasionalitas
Performance measure yang mendefinisikan kriteria sukses pengetahuan sebelumnya dari si agen tentang lingkungan Tindakan yang dapat dilakukan si agen Deretan persepsi si agen hingga saat ini
11
Rasionalitas
Agen rasional Untuk setiap deretan persepsi yang mungkin, sebuah agen rasional hendaklah memilih satu tindakan yang diharapkan memaksimalkan ukuran performance-nya, dengan adanya bukti yang diberikan oleh deretan persepsi dan sembarang pengetahuan terpasang yang dimiliki agen itu.
12
Rasionalitas
Pandang agen vacuum cleaner sederhana yang melakukan hal berikut: bersihkan ruangan jika berdebu dan pindah ke ruangan lain jika tidak. Apakah ini agen rasional? Tergantung pada apa performance measure, apa yang diketahuinya tentang lingkungan, dan sensor serta aktuator apa yang dimiliki si agen.
13
Rasionalitas
Misalkan:
Performance measure menghadiahkan satu point untuk tiap ruangan bersih pada setiap langkah selama masa hidup 1000 kali langkah. Geography lingkungan diketahui a priori tetapi distribusi debu dan lokasi awal si agen tidak diketahui. Ruangan bersih tetap bersih dan penyedotan akan memberishkan ruangan saat itu.
14
Rasionalitas
Tindakan Left dan Right memindahkan agen ke kiri dan ke kanan kecuali jika si agen terpaksa keluar dari lingkungannya, dalam hal ini si agen tetap tinggal dimana dia berada Tindakan yang tersedia hanyalah Left , Right, dan Suck. Si agen menerima kesan dengan benar tentang lokasi dan apakah lokasi itu mengandung debu.
Rasionalitas
Agen yang sama akan menjadi irasional dibawah keadaanyang berbeda. Contoh: setelah semua demu bersih, si agen berputar maju mundur secara tidak perlu; Jika performance measure termasuk penalti satu point untuk tiap gerakan kiri atau kanan, si agen akan kehabisan point.
16
Rasionalitas
Agen yang lebih baik untuk hal seperti ini adalah yang tidak melakukan apa-apa setelah pasti semua ruangan bersih. Jika ruang yang bersih kembali berdebu, si agen hendaklah sesekali memeriksa dan membersihkan kembali jika perlu. Jika geography lingkungan tidak diketahui, si agen akan perlu mengeksplorasinya daripada bertahan di ruangan A dan B.
17
Rasionalitas berbeda dari omniscience (tahu segala/all-knowing dengan pengetahuan tak berhingga) Agen omniscient mengetahui hasil aktual tindakannya dan dapat bertindak sesuai dengan itu. Akan tetapi, omniscience adalah tidak mungkin dalam realitas.
Contoh: penyeberang jalan tiba-tiba ketimpa pintu pesawat cargo (New door latches urged for Boing 747 jumbo jets, Washington Post, 25 Agustus 1989).
18
Definisi rasionalitas tidak memerlukan omniscience karena pilihan rasional hanya tergantung pada deretan persepsi hingga saat ini. Tetapi si agen juga tidak boleh melakukan tindakan yang bodoh.
Contoh: jika si agen tidak melihat ke dua arah sebelum menyeberang jalan yang sibuk, maka deretan persepnya tidak akan memberitahu bahwa
Pertama, adalah tidak rasional menyeberang jalan di bawah keadaan uninformative percept sequence: resiko kecelakaan dari menyeberang tanpa melihat terlalu besar. Kedua, si agen rasional hendaklah memilih tindakan melihat sebelum menyeberangi jalan, karena melihat membantu memaksimumkan expected performance. Melakukan tindakan untuk memodifikasi persepsi mendatangdisebut information gathering sebuah bagian penting dari rasionalitas.
20
Definisi agen rasional tidak hanya menyangkut pengumpulan informasi, tetapi juga belajar sebanyak mungkin dari persep yang diterimanya.
Jika keadaan lingkungan diketahui secara lengkap a priori, si agen tidak memerlukan persep atau belajar, cukup bertindak dengan benar.
21
Sebuah agen adalah otonom (autonomous) apabila perilakunya ditentukan oleh pengalamannya sendiri (dengan kemampuan belajar dan beradaptasi). Jika si agen melandaskan tindakannya pada pengetahuan sebelumnya dari si desainer, bukan pada persep yang diterimanya, maka agen tersebut kurang memiliki otonomi.
22
Task Environment
PEAS: Performance measure, Environment, Actuators, Sensors Pertama-tama harus menentukan pengaturan untuk desain agen cerdas Contoh:
23
Task Environment
24
Task Environment
Agen: Sistem pendiagnosa medis Performance measure: Pasien sehat, biaya minimal, sesuai hukum Environment: Patient, hospital, staff Actuators: Screen display (questions, tests, diagnoses, treatments, referrals) Sensors: Keyboard (entry of symptoms, findings, patient's answers)
25
Task Environment
Agent: Robot pengutip-sukucadang Performance measure: Persentase suku cadang dalam kotak yang benar Environment: ban berjalan dengan suku cadang, kotak Actuators: Pergelangan dan tangan tersambung Sensors: Kamera, joint angle sensors
26
Task Environment
Agen: Tutor Bahasa Inggeris Interaktif Performance measure: Memaksimalkan nilai mahasiswa pada waktu ujian Environment: Sekumpulan mahasiswa Actuators: Layar display (exercises, suggestions, corrections) Sensors: Keyboard
27
Jenis-jenis Lingkungan
Fully observable (vs. partially observable): Sensor-sensor sebuah agen memberinya akses ke keadaan lengkap lingkungannya pada setiap jangka waktu. Deterministic (vs. stochastic): Keadaan lingkungan berikutnya sepenuhnya ditentukan oleh keadaan sekarang dan tindakan yang dilaksanakan oleh agen. (Jika lingkungan itu deterministik kecuali untuk tindakan agen-agen lain, maka lingkungannya adalah strategic) Episodic (vs. sequential): Pengalaman agen dibagi kedalam "episode-episode" atomik (setiap episode terdiri dari si agen memahami (perceiving) dan kemudian melaksanakan satu tindakan, dan pilihan tindakan dalam tiap episode hanya tergantung pada episode itu sendiri.
28
Jenis-jenis Lingkungan
Static (vs. dynamic): Lingkungan tidak berubah selagi agen direncanakan (deliberating). (Lingkungan adalah semidynamic jika lingkungan itu sendiri tidak berubah dengan berjalannya waktu tetapi skor performa agen berubah) Discrete (vs. continuous): berkenaan dengan
keadaan (state) dari lingkungan, pada cara menangani waktu, dan pada persep dan tindakan si agen.
29
Jenis-jenis Lingkungan
Single agent (vs. multiagent): Sebuah agen yang mengoperasikan dirinya sendiri dalam sebuah lingkungan. Lingkungan multiagen dapat kooperatif atau kompetitif. Known (vs. unknown): Dalam lingkungan yang diketahui, hasil (atau probabilitas hasil jika dalam lingkungan stokastik) untuk semua tindakan telah diberikan. Dalam lingkungan yang tidak diketahui (unknown), si agen harus belajar bagaimana bertindak untuk memperoleh keputusan yang baik.
30
Jenis-jenis Lingkungan
Lingkungan Tugas Crossword puzzle Chess with a clock
Poker Backgammon Taxi driving Medical diagnosis Image-analysis Part-picking robot Refinery Controller Int. English Tutor
Jenis lingkungan sangat menentukan rancangan agen Dunia nyata (tentu saja) partially observable, stochastic, sequential, dynamic, continuous, multi-agent.
31
Struktur Agen
Perilaku agen: tindakan yang dilakukan setelah diberikan sembarang sekuen persepsi.
Tugas AI adalah merancang program agen yang mengimplementasikan fungsi agen yang memetakan persepsi ke tindakan Diasumsikan program ini berjalan di beberapa alat komputasi yang dilengkapi sensors dan actuators (disebut arsitektur)
Agent = arsitektur + program
32
Program-Program Agen
Table-driven agents
Agen melihat ke deretan persep dan kemudian menggunakannya untuk indeks ke sebuah tabel tindakan untuk menentukan apa yang akan dilakukan.
function TABLE-DRIVEN-AGENT(percept) returns an action
static: percepts, a sequence, initially empty tables, a table of actions, indexed by percepts sequence, initially fully specified append percept to the end of percepts action <- LOOKUP(percepts, table) return action
33
Table-driven agent
Kekurangan:
Tabel sangat besar Misalkan P himpunan percepts yang mungkin T lifetime agen Entri table lookup: Automated taxi:
rate visual input: 27MB/Sec (30 frame/sec, 640x480 pixel dengan 24 bit color information) Table lookup: 10250,000,000,000
Memakan waktu lama untuk membangun tabel Tidak Otonom Bahkan dengan pembelajaran, memerlukan waktu yang lama untuk mempelajari entri tabel
34
Program-Program Agen
Empat jenis dasar program agen yang meliputi semua sistem cerdas:
Simple reflex agents Model-based reflex agents Goal-based agents Utility-based agents
35
Agen memilih tindakan berdasarkan persep saat ini (current percept), dengan mengabaikan sejarah persep selebihnya. Contoh:
function REFLEX-VACUUM-AGENTS([location, status]) returns an action
if status = Dirty then return Suck else if location = A then return Right else if location = B then return Left
36
Sejarah persep diabaikan Apabila ruangan saat ini kotor, tindakan tidak bergantung pada lokasi.
Pendekatan yang lebih umum dan fleksibel adalah dengan membangun sebuah general-purpose interpreter untuk conditionaction rules dan kemudian membuat himpunan aturan untuk lingkungan tugas spesifik.
if car-in-front-is-braking then initiate-braking
37
Struktur skematik program menunjukkan bagaimana aturan condition-action memungkinkan si agen membuat hubungan dari persep ke tindakan.
function SIMPLE-REFLEX-AGENT(percept) returns an action static: rules, a set of condition-action rules
state <- INTERPRET-INPUT(percept) rule <- RULE-MATCH(state, rule) action <- RULE-ACTION[rule] return action
38
Persegi panjang: keadaan internal proses keputusan agen pada saat ini. Oval: latar belakang informasi yang digunakan dalam proses.
39
Simple reflex agents adalah sederhana, tetapi memiliki kecerdasan yang terbatas.
Hanya berlaku jika keputusan yang benar dapat dibuat hanya berdasarkan persep saat ini yaitu hanya jika lingkungannya adalah fully observable. Sedikit unobservability saja dapat menyebabkan kesulitan serius.
40
Cara paling efektif untuk menangani parsial observability: perhatikan bagian dari dunia yang tidak dapat dilihat. Memiliki internal state yang tergantung pada sejarah persep yang dapat merefleksikan paling sedikit sebagian aspek yang tidak terlihat dari keadaan saat ini. Melakukan update pada internal state memerlukan dua jenis pengetahuan:
41
Pertama: informasi tentang bagaimana dunia berubah secara independen terhadap agen. Kedua: informasi tentang bagaimana tindakan si agen itu sendiri mempengaruhi dunia. Pengetahuan tentang how the world works disebut model dari dunia itu. Agen yang menggunakan model demikian itu disebut model-based agent.
42
43
Persep saat ini dikombinasikan dengan internal state yang lama untuk menghasilkan deskripsi terupdate dari keadaan saat ini yang didasarkan pada model si agen tantang how the world works. Fungsi UPDATE-STATE berguna untuk menciptakan deskripsi internal state baru.
44
Melihat (keeps track of) keadaan dunia saat ini, menggunakan sebuah internal model. Kemudian memilih tindakan dengan cara yang sama seperti reflex agent.
45
Goal-based agents
Mengetahui sesuatu tentang keadaan lingkungan saat ini tidak selalu cukup untuk memutuskan apa yang akan dilakukan.
Selain deskripsi keadaan saat ini, agen memerlukan sejenis informasi goal yang menjabarkan tentang situasi yang diinginkan.
Tujuan si penumpang
46
Goal-based agents
47
Utility-based agents
Goal saja tidak cukup untuk menghasilkan perilaku berkualitas-tinggi dalam sebagian besar lingkungan. Performance measure hendaklah memungkinkan adanya perbandingan terhadap keadaan dunia yang berbeda-beda sesuai dengan seberapa happy si agen. Happy = utility
48
Utility-based agents
49
Learning agents
Learning memungkinkan si agen beroperasi dalam lingkungan yang pada mulanya tidak diketahui dan menjadi lebih kompeten daripada yang dimungkinkan oleh pengetahuan awalnya. Learning Agen dapat dibagi ke dalam empat komponen konseptual.
Performance element mengandung kumpulan pengetahuan dan prosedur yang dimiliki agen untuk memilih tindakan.
50
Learning agents
Critic memberikan feedback kepada learning element tentang bagaimana keadaan agen dan menentukan bagaimana performance element hendaknya dimodifikasi agar lebih baik di masa datang.
Learning agents
Problem generator bertanggung jawab untuk mengusulkan tindakan yang akan membawa ke pengalaman baru dan informatif.
Problem generator mengidentifikasi bidang perilaku tertentu yang memerlukan perbaikan dan mengusulkan untuk melakukan eksperiman.
52
Learning agents
53
54
Factored representation
Memisah masing-masing state menjadi satu kumpulan variabel atau atribut yang tetap. Masing-masing variabel memiliki nilai. Dua keadaan terfaktor yang berbeda dapat berbagi atribut yang sama.
55
Sumbu dimana ketiga representasi tersebut berada memiliki sifat ekspresif yang semakin meningkat. Representasi bahasa yang lebih ekspresif akan lebih tetliti.
56