sso
| Hello Guest - login | My Account | My bookshelf | My folders
Kotar website
Page:10

העיוור והחזק של הרשת או שעלינו לדבוק בגישה הישנה של תכנות, או אולי לשלב בין שתי הגישות בהתאם לבעיה . רשתות נוירונים הינן בבחינת קופסה שחורה - Black Box . אי אפשר לדעת כיצד הן הגיעו לתוצאה הנדרשת, לא ניתן לעשות Reverse Engineering לרשת . כפי שנראה בפרק א', הרשת אינה יותר מאוסף המשקלות שלה, זהו "החיווט" שלה, אני יכול ללמד אותה להגיע למשקלות הנכונים ואולם אינני יודע לחשב אותם מראש . אנו אומרים כי מערכת כזאת איננה "שקופה" . לעיתים השקיפות חשובה לנו, אם למשל המערכת מנבאת את סיכויינו להיות חולים, היינו רוצים לדעת מדוע . לא היינו מסתפקים בטענה שהרשת מנבאת נכון ואפילו אם כמעט תמיד . לאחרונה החל להתפתח תחום חדש הקרוי Explainable AI והוא כולל אוסף של טכניקות המנסות לפענח את הקופסה השחורה הזאת . על בעיית השקיפות עונות הרשתות הגרפיות הנידונות בפרק ג' . הפרק השני עוסק בלימוד חיזוק או Reinforcement Learning . לימוד חיזוק הוא מודל המייצג סוג של חשיבה או תכנון, כלומר צפייה קדימה בזמן . בכדי לבצע משימה בעלת שלבים רבים ובצורה הטובה ביותר נצטרך לתכנן את הפעולות תוך כדי צפייה קדימה בזמן . בדיוק כפי שאנו עושים כשאנו משחקים כנגד יריב כלשהו . אנו חושבים מהו המהלך שהיריב יבצע וכנגד זה מה כדאי לנו לעשות וכיצד היריב שלנו ישיב על כל תגובה שלנו וכך הלאה . משחק מעין זה דורש התבוננות קדימה, שאותה אנו יכולים ללמוד אם שיחקנו את אותו משחק פעמים רבות . אנו יכולים ללמד רובוט ללכת, ללמד מכונית אוטונומית לחנות, ללמד מחשב לשחק כנגד יריב ועוד . אנחנו נראה מספר סוגים של לימוד כזה : לימוד המתבצע כאשר נתון לנו מודל של העולם ( . Model Based R . L ) ולימוד ללא מודל ( . Model Free R . L ) . אנו נראה כי כאשר יש לנו מודל של העולם הלימוד יהיה פשוט יחסית . כאשר אין לנו מודל נצטרך לדגום את העולם וללמוד ממנו כיצד להתנהג . לעיתים כאשר אין בעז תמיר 10

רסלינג


For optimal sequential viewing of Kotar
CET, the Center for Educational Technology, Public Benefit Company All rights reserved to the Center for Educational Technology and participating publishers
Library Rules About the library Help