Você está na página 1de 57

HO-2 KTL401 Kecerdasan Buatan

Intelligent Agents
Opim S Sitompul

Outline

Agen dan lingkungan Rasionalitas PEAS (Performance measure, Environment, Actuators, Sensors) Jenis-jenis Lingkungan Jenis-jenis Agen

Agent

Agent adalah sesuatu yang dapat mengesan (perceiving) lingkungan (environment) nya melalui sensors dan bertindak (acting) terhadap lingkungan tersebut melalui actuators Agen manusia: mata, telinga, dan organ tubuh lain untuk sensor; tangan, kaki, mulut, dan bagian tubuh lain untuk actuators Agen robotik: kamera dan infrared range finders untuk sensors; berbagai macam motor untuk actuators

Agent dan lingkungan

Fungsi agen memetakan dari sejarah persepsi ke dalam tindakan (actions): [f: P* A]

Program agen berjalan pada arsitektur fisik untuk menghasilkan f agen = arsitektur + program
4

Vacuum-cleaner world

Percepts: location and contents, e.g., [A,Dirty] Actions: Left, Right, Suck
5

A vacuum-cleaner agent
Sekuen Persepsi [A, Clean] [A, Dirty] Tindakan Right Suck

[B, Clean]
[B, Dirty]

Left
Suck

[A, Clean], [A, Clean]


[A, Clean], [A, Dirty] [A, Clean], [A, Clean], [A, Clean] [A, Clean], [A, Clean], [A, Dirty]

Right
Suck Right Suck
6

A vacuum-cleaner agent

Pertanyaan:

Bagaimana cara yang benar untuk mengisi tabel tersebut?


Apa yang membuat satu agen itu baik atau buruk, pintar atau bodoh?

Keadaan suatu agen dimaksudkan sebagai alat untuk menganalisis sistem, bukan karakterisasi mutlak yang membagi dunia menjadi agen dan non-agen.
7

Perilaku baik: konsep rasionalitas

Agen rasional adalah sesuatu yang melakukan hal yang benarsecara konseptual, setiap entri tabel bagi fungsi agen terisi dengan benar. Apa arti melakukan hal yang benar? Jawab: dengan mempertimbangkan konsekwensi dari perilaku si agen.

Perilaku baik: konsep rasionalitas

Ketika satu agen diletakkan dalam sebuah lingkungan, si agen menghasilkan satu deretan tindakan sesuai dengan persepsi yang diterimanya. Deretan tindakan ini menyebabkan lingkungan itu berubah ke sederetan keadaan. Jika deretan ini dikehendaki, maka si agen bertindak dengan baik. Hal dikehendaki ini diperoleh melalui sebuah performance measure yang mengevaluasi sederetan keadaan lingkungan tertentu.

Bukan keadaan agen, agar tidak menjadi sour grapes.

Perilaku baik: konsep rasionalitas

Agen rasional

Sebuah agen rasional haruslah mengarah kepada lakukan hal yang benar", berdasarkan kepada apa yang dapat dipahaminya dan tindakan yang dapat dilakukannya. Tindakan yang benar adalah tindakan yang akan menyebabkan agen tersebut paling berhasil Pengukuran Performance: Sebuah kriteria objektif untuk keberhasilan sebuah perilaku agen Mis., ukuran performance dari sebuah agen vacuumcleaner dapat berupa besarnya jumlah debu yang dibersihkan, jumlah waktu yang dihabiskan, jumlah listrik yang dikonsumsi, jumlah kebisingan yang dihasilkan, dll.

10

Rasionalitas

Rasional pada satu waktu tertentu bergantung pada empat hal:


Performance measure yang mendefinisikan kriteria sukses pengetahuan sebelumnya dari si agen tentang lingkungan Tindakan yang dapat dilakukan si agen Deretan persepsi si agen hingga saat ini

11

Rasionalitas

Agen rasional Untuk setiap deretan persepsi yang mungkin, sebuah agen rasional hendaklah memilih satu tindakan yang diharapkan memaksimalkan ukuran performance-nya, dengan adanya bukti yang diberikan oleh deretan persepsi dan sembarang pengetahuan terpasang yang dimiliki agen itu.
12

Rasionalitas

Pandang agen vacuum cleaner sederhana yang melakukan hal berikut: bersihkan ruangan jika berdebu dan pindah ke ruangan lain jika tidak. Apakah ini agen rasional? Tergantung pada apa performance measure, apa yang diketahuinya tentang lingkungan, dan sensor serta aktuator apa yang dimiliki si agen.
13

Rasionalitas

Misalkan:

Performance measure menghadiahkan satu point untuk tiap ruangan bersih pada setiap langkah selama masa hidup 1000 kali langkah. Geography lingkungan diketahui a priori tetapi distribusi debu dan lokasi awal si agen tidak diketahui. Ruangan bersih tetap bersih dan penyedotan akan memberishkan ruangan saat itu.
14

Rasionalitas

Tindakan Left dan Right memindahkan agen ke kiri dan ke kanan kecuali jika si agen terpaksa keluar dari lingkungannya, dalam hal ini si agen tetap tinggal dimana dia berada Tindakan yang tersedia hanyalah Left , Right, dan Suck. Si agen menerima kesan dengan benar tentang lokasi dan apakah lokasi itu mengandung debu.

Dalam keaadan seperti ini si agen adalah rasional.


15

Rasionalitas

Agen yang sama akan menjadi irasional dibawah keadaanyang berbeda. Contoh: setelah semua demu bersih, si agen berputar maju mundur secara tidak perlu; Jika performance measure termasuk penalti satu point untuk tiap gerakan kiri atau kanan, si agen akan kehabisan point.

16

Rasionalitas

Agen yang lebih baik untuk hal seperti ini adalah yang tidak melakukan apa-apa setelah pasti semua ruangan bersih. Jika ruang yang bersih kembali berdebu, si agen hendaklah sesekali memeriksa dan membersihkan kembali jika perlu. Jika geography lingkungan tidak diketahui, si agen akan perlu mengeksplorasinya daripada bertahan di ruangan A dan B.
17

Omniscience, learning, dan autonomy

Rasionalitas berbeda dari omniscience (tahu segala/all-knowing dengan pengetahuan tak berhingga) Agen omniscient mengetahui hasil aktual tindakannya dan dapat bertindak sesuai dengan itu. Akan tetapi, omniscience adalah tidak mungkin dalam realitas.
Contoh: penyeberang jalan tiba-tiba ketimpa pintu pesawat cargo (New door latches urged for Boing 747 jumbo jets, Washington Post, 25 Agustus 1989).
18

Omniscience, learning, dan autonomy

Definisi rasionalitas tidak memerlukan omniscience karena pilihan rasional hanya tergantung pada deretan persepsi hingga saat ini. Tetapi si agen juga tidak boleh melakukan tindakan yang bodoh.
Contoh: jika si agen tidak melihat ke dua arah sebelum menyeberang jalan yang sibuk, maka deretan persepnya tidak akan memberitahu bahwa

ada truk besar yang datang dengan kecepatan tinggi.


19

Omniscience, learning, dan autonomy

Pertama, adalah tidak rasional menyeberang jalan di bawah keadaan uninformative percept sequence: resiko kecelakaan dari menyeberang tanpa melihat terlalu besar. Kedua, si agen rasional hendaklah memilih tindakan melihat sebelum menyeberangi jalan, karena melihat membantu memaksimumkan expected performance. Melakukan tindakan untuk memodifikasi persepsi mendatangdisebut information gathering sebuah bagian penting dari rasionalitas.
20

Omniscience, learning, dan autonomy

Rasionalitas tidak sama dengan kesempurnaan.

Rasionalitas memaksimalkan ekspektasi kinerja. Kesempurnaan memaksimalkan kinerja aktual.

Definisi agen rasional tidak hanya menyangkut pengumpulan informasi, tetapi juga belajar sebanyak mungkin dari persep yang diterimanya.

Jika keadaan lingkungan diketahui secara lengkap a priori, si agen tidak memerlukan persep atau belajar, cukup bertindak dengan benar.
21

Omniscience, learning, dan autonomy

Sebuah agen adalah otonom (autonomous) apabila perilakunya ditentukan oleh pengalamannya sendiri (dengan kemampuan belajar dan beradaptasi). Jika si agen melandaskan tindakannya pada pengetahuan sebelumnya dari si desainer, bukan pada persep yang diterimanya, maka agen tersebut kurang memiliki otonomi.

22

Task Environment

PEAS: Performance measure, Environment, Actuators, Sensors Pertama-tama harus menentukan pengaturan untuk desain agen cerdas Contoh:

Merancang supir taksi otomatis:

23

Task Environment

24

Task Environment

Agen: Sistem pendiagnosa medis Performance measure: Pasien sehat, biaya minimal, sesuai hukum Environment: Patient, hospital, staff Actuators: Screen display (questions, tests, diagnoses, treatments, referrals) Sensors: Keyboard (entry of symptoms, findings, patient's answers)
25

Task Environment

Agent: Robot pengutip-sukucadang Performance measure: Persentase suku cadang dalam kotak yang benar Environment: ban berjalan dengan suku cadang, kotak Actuators: Pergelangan dan tangan tersambung Sensors: Kamera, joint angle sensors
26

Task Environment

Agen: Tutor Bahasa Inggeris Interaktif Performance measure: Memaksimalkan nilai mahasiswa pada waktu ujian Environment: Sekumpulan mahasiswa Actuators: Layar display (exercises, suggestions, corrections) Sensors: Keyboard

27

Jenis-jenis Lingkungan

Fully observable (vs. partially observable): Sensor-sensor sebuah agen memberinya akses ke keadaan lengkap lingkungannya pada setiap jangka waktu. Deterministic (vs. stochastic): Keadaan lingkungan berikutnya sepenuhnya ditentukan oleh keadaan sekarang dan tindakan yang dilaksanakan oleh agen. (Jika lingkungan itu deterministik kecuali untuk tindakan agen-agen lain, maka lingkungannya adalah strategic) Episodic (vs. sequential): Pengalaman agen dibagi kedalam "episode-episode" atomik (setiap episode terdiri dari si agen memahami (perceiving) dan kemudian melaksanakan satu tindakan, dan pilihan tindakan dalam tiap episode hanya tergantung pada episode itu sendiri.

28

Jenis-jenis Lingkungan

Static (vs. dynamic): Lingkungan tidak berubah selagi agen direncanakan (deliberating). (Lingkungan adalah semidynamic jika lingkungan itu sendiri tidak berubah dengan berjalannya waktu tetapi skor performa agen berubah) Discrete (vs. continuous): berkenaan dengan

keadaan (state) dari lingkungan, pada cara menangani waktu, dan pada persep dan tindakan si agen.
29

Jenis-jenis Lingkungan

Single agent (vs. multiagent): Sebuah agen yang mengoperasikan dirinya sendiri dalam sebuah lingkungan. Lingkungan multiagen dapat kooperatif atau kompetitif. Known (vs. unknown): Dalam lingkungan yang diketahui, hasil (atau probabilitas hasil jika dalam lingkungan stokastik) untuk semua tindakan telah diberikan. Dalam lingkungan yang tidak diketahui (unknown), si agen harus belajar bagaimana bertindak untuk memperoleh keputusan yang baik.
30

Jenis-jenis Lingkungan
Lingkungan Tugas Crossword puzzle Chess with a clock
Poker Backgammon Taxi driving Medical diagnosis Image-analysis Part-picking robot Refinery Controller Int. English Tutor

Observable Fully Fully


Partially Fully Partially Partially Fully Partially Partially Partially

Deterministic Deterministic Stategic


Stochastic Stochastic Stochastic Stochastic Deterministic Stochastic Stochastic Stochastic

Episodic Sequential Sequential


Sequential Sequential Sequential Sequential Episodic Episodic Sequential Sequential

Static Static Semi


Static Static Dynamic Dynamic Semi Dynamic Dynamic Dynamic

Discrete Discrete Discrete


Discrete Discrete Continu Continu Continu Continu Continu Discrete

Agents Single Multi


Multi Multi Multi Single Single Single Single Multi

Jenis lingkungan sangat menentukan rancangan agen Dunia nyata (tentu saja) partially observable, stochastic, sequential, dynamic, continuous, multi-agent.
31

Struktur Agen

Perilaku agen: tindakan yang dilakukan setelah diberikan sembarang sekuen persepsi.

Tugas AI adalah merancang program agen yang mengimplementasikan fungsi agen yang memetakan persepsi ke tindakan Diasumsikan program ini berjalan di beberapa alat komputasi yang dilengkapi sensors dan actuators (disebut arsitektur)
Agent = arsitektur + program

Program yang dipilih harus sesuai dengan arsitektur tersebut.

Cth: Action: Walk arsitekturnya hendaklah memiliki kaki

32

Program-Program Agen

Table-driven agents
Agen melihat ke deretan persep dan kemudian menggunakannya untuk indeks ke sebuah tabel tindakan untuk menentukan apa yang akan dilakukan.
function TABLE-DRIVEN-AGENT(percept) returns an action
static: percepts, a sequence, initially empty tables, a table of actions, indexed by percepts sequence, initially fully specified append percept to the end of percepts action <- LOOKUP(percepts, table) return action

33

Table-driven agent

Kekurangan:

Tabel sangat besar Misalkan P himpunan percepts yang mungkin T lifetime agen Entri table lookup: Automated taxi:

rate visual input: 27MB/Sec (30 frame/sec, 640x480 pixel dengan 24 bit color information) Table lookup: 10250,000,000,000

Memakan waktu lama untuk membangun tabel Tidak Otonom Bahkan dengan pembelajaran, memerlukan waktu yang lama untuk mempelajari entri tabel
34

Program-Program Agen

Empat jenis dasar program agen yang meliputi semua sistem cerdas:

Simple reflex agents Model-based reflex agents Goal-based agents Utility-based agents

35

Simple reflex agents

Agen memilih tindakan berdasarkan persep saat ini (current percept), dengan mengabaikan sejarah persep selebihnya. Contoh:
function REFLEX-VACUUM-AGENTS([location, status]) returns an action

if status = Dirty then return Suck else if location = A then return Right else if location = B then return Left

36

Simple Reflex Agent

Dibandingkandengan tabelnya, program agen vacuum cleaner adalah sangat kecil.


Sejarah persep diabaikan Apabila ruangan saat ini kotor, tindakan tidak bergantung pada lokasi.

Pendekatan yang lebih umum dan fleksibel adalah dengan membangun sebuah general-purpose interpreter untuk conditionaction rules dan kemudian membuat himpunan aturan untuk lingkungan tugas spesifik.
if car-in-front-is-braking then initiate-braking
37

Simple reflex agents

Struktur skematik program menunjukkan bagaimana aturan condition-action memungkinkan si agen membuat hubungan dari persep ke tindakan.
function SIMPLE-REFLEX-AGENT(percept) returns an action static: rules, a set of condition-action rules

state <- INTERPRET-INPUT(percept) rule <- RULE-MATCH(state, rule) action <- RULE-ACTION[rule] return action
38

Simple reflex agents

Persegi panjang: keadaan internal proses keputusan agen pada saat ini. Oval: latar belakang informasi yang digunakan dalam proses.
39

Simple Reflex Agent

Simple reflex agents adalah sederhana, tetapi memiliki kecerdasan yang terbatas.

Hanya berlaku jika keputusan yang benar dapat dibuat hanya berdasarkan persep saat ini yaitu hanya jika lingkungannya adalah fully observable. Sedikit unobservability saja dapat menyebabkan kesulitan serius.

40

Model-based Reflex Agent

Cara paling efektif untuk menangani parsial observability: perhatikan bagian dari dunia yang tidak dapat dilihat. Memiliki internal state yang tergantung pada sejarah persep yang dapat merefleksikan paling sedikit sebagian aspek yang tidak terlihat dari keadaan saat ini. Melakukan update pada internal state memerlukan dua jenis pengetahuan:
41

Model-based Reflex Agent

Pertama: informasi tentang bagaimana dunia berubah secara independen terhadap agen. Kedua: informasi tentang bagaimana tindakan si agen itu sendiri mempengaruhi dunia. Pengetahuan tentang how the world works disebut model dari dunia itu. Agen yang menggunakan model demikian itu disebut model-based agent.

42

Model-based reflex agents

43

Model-based reflex agents

Persep saat ini dikombinasikan dengan internal state yang lama untuk menghasilkan deskripsi terupdate dari keadaan saat ini yang didasarkan pada model si agen tantang how the world works. Fungsi UPDATE-STATE berguna untuk menciptakan deskripsi internal state baru.

44

Model-based reflex agents

Melihat (keeps track of) keadaan dunia saat ini, menggunakan sebuah internal model. Kemudian memilih tindakan dengan cara yang sama seperti reflex agent.

45

Goal-based agents

Mengetahui sesuatu tentang keadaan lingkungan saat ini tidak selalu cukup untuk memutuskan apa yang akan dilakukan.

Contoh: di persimpangan jalan

Selain deskripsi keadaan saat ini, agen memerlukan sejenis informasi goal yang menjabarkan tentang situasi yang diinginkan.

Tujuan si penumpang
46

Goal-based agents

47

Utility-based agents

Goal saja tidak cukup untuk menghasilkan perilaku berkualitas-tinggi dalam sebagian besar lingkungan. Performance measure hendaklah memungkinkan adanya perbandingan terhadap keadaan dunia yang berbeda-beda sesuai dengan seberapa happy si agen. Happy = utility
48

Utility-based agents

49

Learning agents

Learning memungkinkan si agen beroperasi dalam lingkungan yang pada mulanya tidak diketahui dan menjadi lebih kompeten daripada yang dimungkinkan oleh pengetahuan awalnya. Learning Agen dapat dibagi ke dalam empat komponen konseptual.

Performance element bertanggung jawab untuk memilih tindakan eksternal.

Performance element mengandung kumpulan pengetahuan dan prosedur yang dimiliki agen untuk memilih tindakan.
50

Learning agents

Critic memberikan feedback kepada learning element tentang bagaimana keadaan agen dan menentukan bagaimana performance element hendaknya dimodifikasi agar lebih baik di masa datang.

Critic memperhatikan keadaan dunia dan mengirim informasi ke learning element.

Learning element bertanggungjawab untuk melakukan perbaikan


51

Learning agents

Problem generator bertanggung jawab untuk mengusulkan tindakan yang akan membawa ke pengalaman baru dan informatif.

Problem generator mengidentifikasi bidang perilaku tertentu yang memerlukan perbaikan dan mengusulkan untuk melakukan eksperiman.

52

Learning agents

53

Cara Kerja Program Agen

54

Cara Kerja Program Agen


Atomic representation
Tiap-tiap keadaan dunia tidak dapat dibagi-bagi karena tidak memiliki struktur internal. Tiap-tiap state merupakan black box.

Factored representation
Memisah masing-masing state menjadi satu kumpulan variabel atau atribut yang tetap. Masing-masing variabel memiliki nilai. Dua keadaan terfaktor yang berbeda dapat berbagi atribut yang sama.
55

Cara Kerja Program Agen


Structured representation
Tiap-tiap state merupakan objek yang saling berhubungan antara satu dengan yang lain. Objek dan berbagai hubungannya dapat dijabarkan secara eksplisit.

Sumbu dimana ketiga representasi tersebut berada memiliki sifat ekspresif yang semakin meningkat. Representasi bahasa yang lebih ekspresif akan lebih tetliti.
56

Cara Kerja Program Agen


Contoh:
Dalam bahasa representasi terstruktur seperti firstorder logic, aturan permainan catur dapat dituliskan dalam satu atau dua halaman. Dalam bahasa factored representasion seperti proposisional logic, aturan itu bisa memerlukan ribuan halaman. Sebaliknya, reasoning dan learning menjadi lebih kompleks dengan semakin bertambah ekspresifnya kekuatan representasi.
57