הבחינה כמו המטלות משמשת כלי ללימוד‪ ,‬ומבטיחה הכנה טובה למבחן

Содержание

Слайд 2

בחינת גמר לדוגמה שאלה 1 (20 נקודות) – חוקי הקשר (association

בחינת גמר לדוגמה

שאלה 1 (20 נקודות) – חוקי הקשר (association rules)
נתון

סל קניות הכולל 100 תנועות ו- 20 פריטים. התמיכה (support) לפריט a הוא 25%, התמיכה לפריט b הוא 90% והתמיכה לקבוצת הפריטים (item set) {a,b} היא 20% . בהנחה שהתמיכה היא 10% וסף הביטחון confidence thresholds)) הוא 60% :
א. חשבו את הביטחון (confidence) עבור חוק ההקשר {a}?{b}
ב. בהמשך לסעיף א', האם החוק הוא בעל עניין (interesting) .
Слайд 3

פתרון שאלה 1 support(a) =25% א support(b) =90% support = support({A}U{B})

פתרון שאלה 1

support(a) =25% א
support(b) =90%
support = support({A}U{B}) = 20%
For

rule A=>B:
confidence = support({A}U{B})/support({A}) = 80%
Слайд 4

פתרון שאלה 1 ב = 0.2/0.25*0.9=0.88 = 0.05/0.25*0.1=2 lift (A , !B) lift (A , B)

פתרון שאלה 1

ב

= 0.2/0.25*0.9=0.88

= 0.05/0.25*0.1=2

lift (A , !B)

lift (A , B)

Слайд 5

שאלה 2 שאלה 2 (25 נקודות) – ניתוח אשכולות (clustering) בצעו

שאלה 2

שאלה 2 (25 נקודות) – ניתוח אשכולות (clustering)
בצעו אשכול לעשר

הנקודות הבאות תוך שימוש באלגוריתם
Agglomerative Hierarchical Clustering .
{(1,2), (4,8), (3,9), (7,3),(4,3),(2,4),(5,2),(3,5),(2,5), (6,6)}
בתשובתכם הניחו:
פונקצית המרחק בין פריטים – מנהטן
פונקצית מרחק בין clusters – minimum distance
שימו לב,
בתשובתכם הדגימו את כל השלבים והגדירו את האשכולות
הסופיים .
Слайд 6

פתרון שאלה 2

פתרון שאלה 2

Слайд 7

פתרון שאלה 2

פתרון שאלה 2

Слайд 8

פתרון שאלה 2 6 9

פתרון שאלה 2

6

9

Слайд 9

פתרון שאלה 2 6 9 8

פתרון שאלה 2

6

9

8

Слайд 10

פתרון שאלה 2

פתרון שאלה 2

Слайд 11

פתרון שאלה 2

פתרון שאלה 2

Слайд 12

פתרון שאלה 2 4

פתרון שאלה 2

4

Слайд 13

פתרון שאלה 2 4 1

פתרון שאלה 2

4

1

Слайд 14

פתרון שאלה 2 4 1 10

פתרון שאלה 2

4

1

10

Слайд 15

פתרון שאלה 2 4 1 10

פתרון שאלה 2

4

1

10

Слайд 16

פתרון שאלה 2 4 1 10

פתרון שאלה 2

4

1

10

Слайд 17

פתרון שאלה 2 6 9 8 3 7 2 5 1 4 10

פתרון שאלה 2

6

9

8

3

7

2

5

1

4

10

Слайд 18

שאלה 3

שאלה 3

Слайд 19

שאלה 3 - המשך א. בנו עץ החלטה עבור נתוני האימון

שאלה 3 - המשך

 א. בנו עץ החלטה עבור נתוני האימון שבטבלה

לחיזוי סוג הרכב.
בתשובתכם הדגימו את שלבי בחירת התכונה המפצלת בעץ.
הערה: בתשובתכם יש לכלול חישוב של אחד המדדים כדוגמת אנטרופיה, Gain ratio , מדד גיני.
ב. איזה מבין התכונה/תכונות ניתן להסיר ומדוע? באיזה שלב ניתן להסיר את התכונות הללו?
Слайд 20

פתרון שאלה 3

פתרון שאלה 3

Слайд 21

פתרון שאלה 3 Info(class) = -Σi Pi log2 Pi = -p(C0)*log

פתרון שאלה 3

Info(class) = -Σi Pi log2 Pi = -p(C0)*log p(C0)

-p(C1)*log p(C1) = 0.5*1+ 0.5*1 = 1
Слайд 22

פתרון שאלה 3 Gain (Income) = Info(class) - InfoIncome(class) InfoIncome(class)=Info(class|Income)= -Σj

פתרון שאלה 3

Gain (Income) = Info(class) - InfoIncome(class)

InfoIncome(class)=Info(class|Income)=
-Σj P(Income =vj)

Info(class|Income =vj)

InfoIncome(class)= 0.25*0.97+0.35*0.972+0.2+0.2=0.9827
Gain (Income) = 1 – 0.9827 =0.0173

Слайд 23

פתרון שאלה 3 Gain (CarType) = Info(class) - InfoCarType(class) InfoCarType (class)=Info(class|CarType)=

פתרון שאלה 3

Gain (CarType) = Info(class) - InfoCarType(class)

InfoCarType (class)=Info(class|CarType)=
-Σj P(CarType

=vj) Info(class|CarType =vj)

InfoCarType(class)= 0.2*0.81+0.4*0.54=0.537
Gain (CarType) = 1 – 0.537 =0.463

Слайд 24

פתרון שאלה 3 Gain (Gender) = Info(class) - InfoGender(class) InfoGender (class)=Info(class|Gender)=

פתרון שאלה 3

Gain (Gender) = Info(class) - InfoGender(class)

InfoGender (class)=Info(class|Gender)=
-Σj P(Gender

=vj) Info(class|Gender =vj)

InfoGender(class)= 0.97
Gain (Gender) = 1 – 0.97 = 0.03

Слайд 25

פתרון שאלה 3 Gain (Income) = 0.0173 Gain (CarType) = 0.463

פתרון שאלה 3

Gain (Income) = 0.0173
Gain (CarType) = 0.463
Gain (Gender) =

0.03
Selected Attribute CarType

CarType

sports

not sports

C0

C1

Слайд 26

פתרון שאלה 3 CarType sports luxury C1 family Income not low low C0 C0 C1

פתרון שאלה 3

CarType

sports

luxury

C1

family

Income

not low

low

C0

C0

C1

Слайд 27

שאלה 4 (20 נקודות)- סיווג וחיזוי (classification and prediction) נתון סט

שאלה 4 (20 נקודות)- סיווג וחיזוי (classification and prediction)
נתון סט נתונים

בו ה Concept הוא XOR של N משתנים בינאריים לא תלויים.
הסיכוי ל True הוא חצי בכולם.
א. חשבו את מספר הענפים הנדרשים לייצוג ה Concept בעץ החלטה?
ב. בהמשך לסעיף א' , מהי סיבוכיות האלגוריתם ?

שאלה 4

Слайд 28

פתרון שאלה 4 להלן עץ בינארי המחשב את הביטוי הלוגי A

פתרון שאלה 4

להלן עץ בינארי המחשב את הביטוי הלוגי A XOR

B באמצעות שפה המכילה את הביטויים {A, B, AND, OR, NOT}.
Слайд 29

פתרון שאלה 4 סריקת Pre-order של העץ תניב את הביטוי: OR(AND(NOT(A),B),AND(A,NOT(B))

פתרון שאלה 4

סריקת Pre-order של העץ תניב את הביטוי:
OR(AND(NOT(A),B),AND(A,NOT(B))
אוסף הביטויים, שניתן

להציב בצמתים מסווג לפונקציות (Function) וטרמינלים (Terminal) . בדוגמה זו, קבוצת הטרמינלים היא{A,B} , וקבוצת הפונקציות היא {AND,OR,NOT}. העלים בעץ יכולים להכיל רק טרמינלים, וצמתים פנימיים יכולים להכיל רק פונקציות. הטרמינלים הם קבועים או משתנים, אשר ערכם נקבע מחוץ למודל, ומוזן בזמן "הרצתו" על מנת להעריך את כשירותו. פונקציות מקבלות פרמטרים, ובתמורה יכולות להחזיר תוצאה ו/או לבצע פעולת לוואי כלשהי (Side Effect), לדוגמה, שמירת נתון בזיכרון.
Слайд 30

שאלה 5 (10 נקודות) במהלך קורס כריית מידע טען אחד הסטודנטים

שאלה 5 (10 נקודות)
במהלך קורס כריית מידע טען אחד הסטודנטים "בחברה

בה אני עובד הנתונים מעודכנים במחסן נתונים. כמו כן, יש לנו חבילת תוכנה לכריית מידע. לדעתי משך זמן ביצוע כרית המידע יהיה כיום אחד בלבד, מאחר ויש להריץ את התוכנה עם הנתונים הקיימים במחסן הנתונים".
חוו דעתכם

שאלה 5

Слайд 31

פתרון שאלה 5 בשאלה זו עליכם להתייחס לנושא של הכנת הנתונים.

פתרון שאלה 5

בשאלה זו עליכם להתייחס לנושא של הכנת הנתונים. האם

באמת ניתן לבצע כריית מידע ישירות על מחסן נתונים?
Слайд 32

FP-Growth

FP-Growth

Слайд 33

Core Data Structure FP-Tree

Core Data Structure FP-Tree

Слайд 34

Step 1: FP-Tree Construction (Example)

Step 1: FP-Tree Construction (Example)

Слайд 35

Step 1: FP-Tree Construction (Example)

Step 1: FP-Tree Construction (Example)

Слайд 36

Step 1: FP-Tree Construction (Example)

Step 1: FP-Tree Construction (Example)

Слайд 37

FP-Tree size

FP-Tree size

Слайд 38

Step 2 : Frequent Itemset Generation

Step 2 : Frequent Itemset Generation

Слайд 39

Step 2 : Frequent Itemset Generation

Step 2 : Frequent Itemset Generation

Слайд 40

Example

Example

Слайд 41

Conditional FP-Tree

Conditional FP-Tree

Слайд 42

Conditional FP-Tree

Conditional FP-Tree

Слайд 43

Conditional FP-Tree

Conditional FP-Tree

Слайд 44

Conditional FP-Tree

Conditional FP-Tree

Слайд 45

Example (continued)

Example (continued)

Слайд 46

Example (continued)

Example (continued)

Слайд 47

Result

Result