Odamlar uchun mashinani o'rganish, 2.1-qism: Nazorat ostidagi ta'lim

Nazorat ostidagi ta'limning ikkita vazifasi: regressiya va tasnif. Chiziqli regressiya, yo'qotish funktsiyalari va gradientning tushishi.

Ushbu turkum to'liq metrajli elektron kitob sifatida mavjud! Bu erda yuklab oling. Yuklab olish uchun bepul, hissa qo'shgan (paypal.me/ml4h)

Raqamli reklama uchun ko'proq dollar sarflab qancha pul olamiz? Ushbu kreditga da'vogar kreditni qaytarib beradimi yoki yo'qmi? Ertaga fond bozorida nima bo'ladi?

Nazorat ostidagi o'quv muammolarida biz tegishli etiketkalar bilan o'quv misollarini o'z ichiga olgan ma'lumotlar to'plamidan boshlaymiz. Masalan, qo'lda yozilgan raqamlarni tasniflashni o'rganayotganda, nazorat qilinadigan o'quv algoritmi qo'lda yozilgan raqamlarning minglab suratlarini va har bir tasvirning to'g'ri raqamini o'z ichiga olgan etiketkalarni oladi. Keyinchalik algoritm rasmlar va ular bilan bog'liq raqamlar o'rtasidagi munosabatni bilib oladi va o'rganilgan munosabatni mashina ilgari ko'rmagan mutlaqo yangi tasvirlarni (yorliqlarsiz) tasniflash uchun qo'llaydi. Shunday qilib, siz telefoningizga suratga tushirib, chekni to'ldirishingiz mumkin!

Nazorat ostidagi o'quv jarayoni qanday ishlashini namoyish qilish uchun, kimningdir tugatgan oliy ma'lumotiga qarab yillik daromadni prognozlash muammosini ko'rib chiqaylik. Rasmiy ravishda aytganda, biz X oliy ma'lumot yilliklari X va yillik yillik daromadi Y o'rtasidagi o'zaro bog'liqlik modelini yaratmoqchimiz.

X (kirish) = oliy ma'lumot yillari
Y (chiqish) = yillik daromad
f = funktsiya X va Y o'rtasidagi munosabatni tavsiflaydi
ϵ (epsilon) = o'rtacha nolga teng bo'lgan tasodifiy xato muddati (ijobiy yoki salbiy)
Epsilon haqida:
(1) ϵ modeldagi qaytarib bo'lmaydigan xatoni anglatadi, bu siz tushuntirishga harakat qilayotgan hodisalardagi xos shovqin tufayli algoritmingizning ishlashi atrofidagi nazariy chegaradir. Masalan, tanga aylanishining natijasini bashorat qilish uchun model yaratishni tasavvur qiling.
(2) Aytganday, matematik Pol Erdes bolalarni "epsilonlar" deb atagan, chunki hisob-kitoblarda (ammo statistikada emas) ϵ ixtiyoriy ravishda kichik ijobiy miqdorni bildiradi. Uyg'unlik, yo'qmi?

Daromadlarni bashorat qilish usullaridan biri daromadlar va ta'limning o'zaro bog'liqligi uchun qat'iy qoidalarga asoslangan modelni yaratishdir. Masalan: "Men har bir qo'shimcha oliy o'quv yili uchun yillik daromad 5000 dollarga oshishini taxmin qilaman."

daromad = ($ 5000 * yil_of_ ta'lim) + bazaviy_kurs
Ushbu yondashuv muhandislik yechimining namunasidir (quyida keltirilgan chiziqli regressiya usuli singari, echimni o'rganish).

Siz daraja turi, yillik ish tajribasi, maktab darajalari va hokazolar to'g'risidagi ba'zi qoidalarni o'z ichiga olgan holda yanada murakkab modelni o'ylab topishingiz mumkin. Masalan: "Agar ular bakalavr yoki undan yuqori bo'lsa, daromad smetasini 1,5 baravarga ko'paytiring."

Ammo qoidalarga asoslangan bunday aniq dastur murakkab ma'lumotlar bilan yaxshi ishlamaydi. Tasavvur qiling, agar "mushuk" yoki "mushuk emas" deb belgilanishi kerak bo'lsa, piksel nashrida kombinatsiyasini tasvirlaydigan if-keyin yaratilgan tasvirni tasniflash algoritmini ishlab chiqishga harakat qiling.

Nazorat ostidagi mashina o'rganish ushbu muammoni kompyuterni sizga ishlashga majbur qilish orqali hal qiladi. Ma'lumotlardagi naqshlarni aniqlab, mashina evristik xususiyatlarni shakllantirishga qodir. Bu va insonni o'rganish o'rtasidagi asosiy farq shundaki, mashina o'rganish kompyuter uskunalarida ishlaydi va kompyuter fanlari va statistikaning obzori orqali eng yaxshi tushuniladi, shu bilan birga insonning bashorati biologik miyada bo'ladi (xuddi shu maqsadlarga erishishda).

Nazorat ostida o'qitish jarayonida mashina etiketli o'quv ma'lumotlarini o'rganish algoritmi orqali ishga tushirish orqali noldan daromad va ta'lim o'rtasidagi o'zaro bog'liqlikni o'rganishga harakat qiladi. Ushbu o'rganilgan funktsiyadan Y ma'lum bo'lmagan odamlarning daromadlarini hisoblash uchun foydalanishimiz mumkin, chunki bizda X yillar davomida ma'lumot mavjud. Boshqacha qilib aytganda, Y ni taxmin qilish uchun biz o'z modelimizni yorliqsiz sinov ma'lumotlariga qo'llashimiz mumkin.

Nazorat ostiga olingan o'quvning maqsadi - Y ni aniq bilish va Y ni bilish mumkin bo'lmagan yangi misollarni keltirishda Y ni iloji boricha aniqroq taxmin qilish. Quyida biz buni amalga oshirish uchun eng keng tarqalgan yondashuvlarni ko'rib chiqamiz.

Nazorat ostidagi ta'limning ikkita vazifasi: regressiya va tasnif

Regressiya: doimiy son qiymatini bashorat qilish. U uy necha pulga sotiladi?
Tasniflash: yorliq tayinlash. Bu mushuk yoki itning rasmimi?

Ushbu qismning qolgan qismi regressiyaga bag'ishlanadi. 2.2-bo'limda biz tasniflash usullariga chuqurroq kirib olamiz.

Regressiya: doimiy qiymatni bashorat qilish

Reqressiya doimiy Y o'zgaruvchini bashorat qiladi. Bu X ma'lumotlariga asoslanib, uy-joy narxlari yoki inson umri kabi qiymatni aniqlashga imkon beradi.

Bu erda maqsad o'zgaruvchisi, biz bashorat qilishda ahamiyat bermaydigan noma'lum o'zgaruvchini anglatadi va doimiy ravishda Y olishi mumkin bo'lgan bo'shliqlar (uzilishlar) yo'qligini anglatadi. Odamning vazni va bo'yi doimiy qiymatdir. O'z navbatida, diskret o'zgaruvchilar faqat cheklangan qiymatlarni qabul qilishi mumkin - masalan, kimdir bolalar soni diskret o'zgaruvchidir.

Daromadni bashorat qilish klassik regressiya muammosidir. Sizning kirish ma'lumotlaringiz X ma'lumotlar bazasidagi shaxslar to'g'risidagi barcha ma'lumotlarni, masalan, ta'lim yillari, ish staji, lavozim nomi yoki pochta indeksi kabi daromadlarni bashorat qilish uchun ishlatilishi mumkin. Ushbu atributlar funktsiyalar deb ataladi, ular soni (masalan, yillar davomida ish tajribasi) yoki kategoriya (masalan, ish nomi yoki o'qish sohasi) bo'lishi mumkin.

Ushbu funktsiyalarni maqsadli chiqish Y bilan bog'liqligi haqida iloji boricha ko'proq mashg'ulotlarni kuzatishni xohlaysiz, shunda sizning modelingiz X va Y o'rtasidagi o'zaro munosabatlarni bilib olishi mumkin.

Ma'lumotlar o'quv ma'lumotlari to'plamiga va test ma'lumotlari to'plamiga bo'linadi. O'quv to'plamida etiketkalar mavjud, shuning uchun sizning namunangiz ushbu yorliqli misollardan o'rganishi mumkin. Sinov to'plamida yorliqlar mavjud emas, ya'ni siz hali taxmin qilayotgan qiymatni bilmayapsiz. Modelingiz sinov ma'lumotlarida yaxshi ishlashi uchun u ilgari duch kelmagan vaziyatlarni umumlashtirishi juda muhimdir.

Regresiya
Y = f (X) + ϵ, bu erda X = (x1, x2… xn)
O'qitish: mashina f-ni etiketli o'quv ma'lumotlaridan o'rganadi
Sinov: mashina Y testini ma'lumotlarga ko'ra taxmin qiladi
E'tibor bering, X har qanday miqdordagi o'lchovga ega bo'lgan tensor bo'lishi mumkin. 1D tensor - bu vektor (1 qator, ko'plab ustunlar), 2D tensor - bu matritsa (ko'p qatorlar, ko'plab ustunlar), keyin siz 3, 4, 5 va undan ortiq o'lchamdagi tensorlarga ega bo'lishingiz mumkin (masalan, qatorlar bilan 3D tensor) , ustunlar va chuqurlik). Ushbu shartlarni o'rganish uchun ushbu chiziqli algebrani ko'rib chiqishning dastlabki bir nechta sahifalariga qarang.

Bizning oddiy 2D misolimizda, bu har bir satrda insonning ma'lumot darajasi va daromadi bo'lgan .csv faylini olishi mumkin. Ko'proq xususiyatlarga ega ustunlarni qo'shing va sizda yanada murakkab, ammo aniqroq model bo'lishi mumkin.

Xo'sh, bu muammolarni qanday hal qilamiz?

Haqiqiy dunyoda aniq, foydali bashorat qiladigan modellarni qanday yaratamiz? Biz buni nazorat qilinadigan o'rganish algoritmlaridan foydalangan holda qilamiz.

Endi qiziqarli qismga o'taylik: algoritmlar bilan tanishish. Biz regressiya va tasnifga yaqinlashishning ba'zi usullarini ko'rib chiqamiz va mashina bo'yicha asosiy tushunchalarni tasvirlaymiz.

Chiziqli regressiya (eng kichik kvadratlar)

“Chiziq chizing. Ha, bu mashinani o'rganishni anglatadi ».

Birinchidan, biz daromadlarni bashorat qilish masalasini chiziqli regressiya bilan hal qilishga qaratamiz, chunki chiziqli modellar tasvirni aniqlash vazifalari bilan yaxshi ishlamaydi (bu biz keyinchalik o'rganadigan chuqur o'rganish sohasi).

Bizda ma'lumotlar to'plami X, va mos keladigan maqsad qiymatlari Y bor. Oddiy eng kichik kvadratlarning (OLS) regressiyasining maqsadi - biz ilgari ko'rilmagan x berilgan yangi yni iloji boricha kam xato bilan taxmin qilish uchun foydalanishimiz mumkin bo'lgan chiziqli modelni o'rganish. Biror kishi qancha yillik ma'lumot olganligi asosida qancha daromad olayotganini taxmin qilishni xohlaymiz.

X_train = [4, 5, 0, 2,…, 6] # o'rta maktabdan keyingi ta'lim
Y_train = [80, 91.5, 42, 55,…, 100] # tegishli yillik daromadlar, ming dollarlarda

Chiziqli regressiya bu parametrik usul bo'lib, u X va Y ga tegishli funktsiyaning shakli haqida taxmin qiladi (biz keyinroq parametrik bo'lmagan usullarning misollarini ko'rib chiqamiz). Bizning model ŷ ma'lum x ni bashorat qiladigan funktsiya bo'ladi:

Bu holda biz X va Y o'rtasida chiziqli bog'liqlik borligini aniq taxmin qilamiz - ya'ni X ning har bir birligi oshishi uchun Y ning doimiy o'sishini (yoki pasayishini) ko'ramiz.

β0 - bu kesishish nuqtasi va our1 - bu bizning chiziqning nishabidir, ya'ni qo'shimcha qo'shimcha ta'lim yilida daromad qancha oshadi (yoki kamayadi).

Bizning maqsadimiz - bu modelni bashorat qilishda xatolarni minimallashtiradigan model parametrlarini o'rganish (bu holda β0 va β1).

Eng yaxshi parametrlarni topish uchun:

1. Modelimiz bashoratlari qanchalik noto'g'ri ekanligini o'lchaydigan xarajat yoki yo'qotish funktsiyasini aniqlang.
2. Yo'qotishni kamaytiradigan parametrlarni toping, ya'ni bizning modelimizni iloji boricha aniqroq qiling.

Grafik jihatdan, ikki o'lchovda, bu eng mos keladigan qatorga olib keladi. Uch o'lchovda biz samolyotni chizamiz va hokazo.

O'lchovga oid eslatma: bizning misolimiz soddaligi uchun ikki o'lchovli, ammo siz odatda sizning modelingizda (x) va koeffitsientlarga (beta) ko'proq ega bo'lasiz, masalan. modelingizni bashorat qilishning aniqligini oshirish uchun tegishli parametrlarga qo'shilganda. Xuddi shu printsiplar yuqoriroq o'lchovlarni umumlashtiradi, garchi narsalarni uchta o'lchovdan tashqari tasavvur qilish ancha qiyinlashadi.

Matematik jihatdan biz har bir haqiqiy ma'lumotlar nuqtasi (y) va bizning modelimizni bashorat qilish (ŷ) o'rtasidagi farqni ko'rib chiqamiz. Salbiy raqamlarni oldini olish va kattaroq farqlarni kamaytirish uchun ushbu farqlarni kvadratga qo'ying, so'ngra ularni qo'shing va o'rtacha qiymatni oling. Bu bizning ma'lumotlarimiz qatoriga qanchalik mos kelishini o'lchovidir.

n = # kuzatuv. Yo'qotishni minimallashtirish uchun lotinni olishda n ning o'rniga 2 * n dan foydalanish matematikani yanada aniqroq bajarishga imkon beradi, garchi ba'zi odamlar statistika buni kufrlik deb aytishadi. Ushbu turdagi narsalar to'g'risida fikrlaringizni boshlaganingizda, siz quyon uyasida baribir ekanligingizni bilib olasiz.

Ushbu kabi oddiy muammoni hal qilish uchun biz yo'qotish funktsiyasini minimallashtiradigan eng maqbul beta parametrlarini topish uchun hisoblash yordamida yopiq shakl echimini hisoblashimiz mumkin. Ammo xarajat funktsiyasi murakkablashib borgan sari hisob-kitob bilan yopiq shaklli echimni topish endi mumkin emas. Bu murakkab yo'qotish funktsiyasini minimallashtirishga imkon beradigan gradient tushishi deb ataladigan iterativ yondashuv uchun motivatsiya.

Gradientning tushishi: parametrlarni bilib oling

“Ko'zoynakni yoping, pastga tushing. Siz yuqoriga ko'taradigan joyingiz bo'lmaganda, pastki qismini topdingiz ».

Gradientning tushishi qayta-qayta paydo bo'ladi, ayniqsa neyron tarmoqlarida. Skyit-learn va TensorFlow kabi mashinalarni o'qitish kutubxonalari uni hamma joyda fonda ishlatadi, shuning uchun tafsilotlarni tushunishga arziydi.

Gradient tushishidan maqsad, bizning modelimiz yo'qotish funktsiyasining minimal qiymatini iterativ ravishda uni yaxshiroq va yaxshiroq yaqinlashtirish orqali topish.

O'zingizni vodiyda to'shalgan holda yurganingizni tasavvur qiling. Sizning maqsadingiz vodiyning tubini topishdir. Buni qanday qilardingiz?

Aqlli yondashuv sizning atrofingizdagi erga tegib, erga eng pastga egilgan yo'nalishda harakat qilishdir. Bir qadam tashlang va zamin tekis bo'lmaguncha xuddi shu jarayonni doimiy ravishda takrorlang. Keyin siz vodiy tubiga etganingizni bilasiz; agar siz o'zingiz turgan joydan biron bir yo'nalishda harakat qilsangiz, yuqoriga yoki yuqoriga ko'tarilasiz.

Matematikaga qaytsak, er bizning yo'qotish funktsiyamizga aylanadi va vodiyning pastki qismidagi balandlik bu funktsiyaning minimalidir.

Keling, regressda ko'rgan yo'qotish funktsiyasini ko'rib chiqaylik:

Bu haqiqatan ham ikkita o'zgaruvchining funktsiyasi ekanligini ko'ramiz: β0 va β1. Qolgan barcha o'zgaruvchilar aniqlanadi, chunki X, Y va n mashqlar davomida berilgan. Ushbu funktsiyani minimallashtirishga harakat qilmoqchimiz.

Funktsiya f (β0, β1) = z dir. Gradient tushishini boshlash uchun siz funktsiyani minimallashtiradigan β0 va β1 parametrlarni taxmin qilasiz.

Keyinchalik, har bir beta parametr bo'yicha yo'qotish funktsiyasining qisman hosilalarini topasiz: [dz / dβ0, dz / dβ1]. Qisman derivativ, agar siz β0 yoki β1 ni juda oz miqdorga ko'paytirsangiz, jami yo'qotish qancha ko'paygan yoki kamayganligini ko'rsatadi.

Boshqacha qilib aytganda, nol oliy ma'lumotni (β0) olgan holda yillik daromadingizni hisoblashingiz modelingizning yo'qotilishini (ya'ni noaniqlik) qanchalik oshiradi? Siz pastga yurishni va yo'qotishni minimallashtirishni yakunlashingiz uchun siz teskari yo'nalishda borishni xohlaysiz.

Shunga o'xshab, agar siz har bir qo'shimcha o'quv yilining daromadga (affects1) qancha ta'sir qilishini hisoblasangiz, bu yo'qotish (z) qancha bo'ladi? Agar qisman lotin dz / β1 manfiy son bo'lsa, unda β1 ni ko'paytirish yaxshi bo'ladi, chunki u to'liq yo'qotishni kamaytiradi. Agar bu musbat son bo'lsa, siz β1 ni kamaytirishni xohlaysiz. Agar nol bo'lsa, β1 ni o'zgartirmang, chunki bu siz maksimal darajaga etganingizni anglatadi.

Buni pastki qismga etguningizcha bajaring, ya'ni algoritm o'zgartirildi va yo'qotish kamaytirildi. Ushbu seriya doirasidan tashqarida juda ko'p fokuslar va alohida holatlar mavjud, ammo umuman olganda, sizning parametrik modelingiz uchun eng maqbul parametrlarni shu tarzda topishingiz mumkin.

Haddan tashqari yarashish

Xulosa: "Sherlok, nima bo'lganini sizning tushuntirishingiz vaziyatga juda xosdir." Munozara: "Ishni murakkablashtirmang, Sherlok. Men har bir qo'shimcha so'z uchun seni uraman. "Giperparametr (λ):" Mana shu har bir qo'shimcha so'z uchun seni uradigan kuch. "

Mashinada o'qitishning keng tarqalgan muammosi - bu ortiqcha o'rganish: model o'rgangan o'quv ma'lumotlarini mukammal tushuntirib beradigan, ammo ko'rilmagan test ma'lumotlarini yaxshi tushunmaydigan funktsiyani o'rganish. O'quv ma'lumotlari haddan tashqari oshib ketganda, model haqiqiy hayotda naqshlarni aks ettirmaydigan xayolparastliklarni yig'ishni boshlaganda, haddan tashqari ortiqcha to'qnashuvlar yuz beradi. Bu, ayniqsa, sizning modelingizni tobora murakkablashtiradigan darajada murakkablashadi. E'tiborsizlik - bu sizning modelingiz ma'lumotlarning asosiy tendentsiyasini qo'lga kiritish uchun etarli darajada murakkab bo'lmagan masaladir.

Ikkilanish-o'zgaruvchan savdo
Ikkilanish bu haqiqiy dunyo hodisalarini soddalashtirilgan model bilan yaqinlashtirish natijasida yuzaga kelgan xato miqdori.
O'zgarish - bu sizning ma'lumotingizdagi test xatolarining o'qitish ma'lumotlaridagi o'zgarishga qarab o'zgarishi. U modelda u o'rgangan ma'lumotlar to'plamining bema'ni narsalariga befarqligini aks ettiradi.
Model murakkablashib borgan sari yanada ravshan (moslashuvchan) bo'lib boraveradi va uning moyilligi pasayadi (o'quv mashg'ulotlari ma'lumotlarini tushuntirish uchun yaxshi ish olib boradi), ammo tafovutlar kuchayadi (u ham umumlashtirmaydi). Oxir oqibat, yaxshi modelga ega bo'lish uchun sizga noaniqlik va past tafovutlar kerak bo'ladi.
Manba: Andrew Ng tomonidan o'qitiladigan Coursera ML kursi

Esda tutingki, biz uchun eng muhim narsa bu model test ma'lumotlarini qanday ishlashi. Belgilanmasdan oldin qaysi elektron pochta xabarlari spam deb belgilanishini oldindan bilmoqchisiz, shunchaki o'zini o'zi yaratishda foydalangan elektron pochtalarni qayta tasniflashda 100% aniq modelni yaratibgina qolmasdan. Bokiralik 20/20 - haqiqiy savol - bu saboq kelajakda yordam beradimi yoki yo'qmi.

O'ng tarafdagi model o'quv ma'lumotlari uchun nolga teng yo'qotishlarga ega, chunki u har bir ma'lumot nuqtasiga juda mos keladi. Ammo dars umumlashtirilmaydi. Bu hali liniyada bo'lmagan yangi ma'lumotlar nuqtasini tushuntirishda dahshatli ish bo'lar edi.

Haddan tashqari talonchilikka qarshi kurashning ikki usuli:

1. Ko'proq ma'lumotlardan foydalaning. Sizda qancha ko'p bo'lsa, har qanday bitta mashq misolida juda ko'p narsalarni o'rganish orqali ma'lumotni haddan tashqari oshirib yuborish shunchalik qiyin bo'ladi.

2. Regulyatsiyadan foydalaning. Yo'qotish funktsiyasiga biron bir xususiyatga juda ko'p tushuntirish kuchini beradigan yoki juda ko'p funktsiyalarni hisobga olishga imkon beradigan modelni yaratganlik uchun jarima soling.

Yuqoridagi summaning birinchi qismi bizning normal xarajatlar funktsiyamizdir. Ikkinchi qism - bu har qanday o'ziga xos xususiyatga juda ko'p tushuntirish kuchini beradigan katta beta koeffitsientlari uchun jarimani qo'shadigan tartibga solish atamasi. Ushbu ikkita element mavjud bo'lgan holda, xarajatlar funktsiyasi ikkita ustuvorlik o'rtasida muvozanatlashdi: o'quv ma'lumotlarini tushuntirish va ushbu tushuntirishning haddan tashqari aniq bo'lishiga yo'l qo'ymaslik.

Xarajat funktsiyasidagi tartibga solish davrining lambda koeffitsienti giperparametrdir: ish faoliyatini yaxshilash uchun modelingizni ko'paytirish yoki kamaytirish mumkin bo'lgan umumiy sozlash (ya'ni sozlangan). Lambda qiymatining yuqoriligi, katta miqdordagi beta koeffitsientlariga nisbatan ko'proq jazolanadi, bu esa potentsial ortiqcha xarajatlarga olib kelishi mumkin. Lambdaning eng yaxshi qiymatini aniqlash uchun siz o'zaro bog'lash usuli deb ataladigan usuldan foydalansangiz, u trening davomida o'quv ma'lumotlarining bir qismini ushlab turishni va keyin sizning modelingiz o'tkazib bo'lingan qismni qanchalik yaxshi tushunishini ko'rishni o'z ichiga oladi. Biz buni yanada chuqurroq ko'rib chiqamiz

Voo! Biz buni qildik.

Mana biz ushbu bo'limda nimani yoritganmiz:

  • Qanday qilib boshqariladigan mashina orqali o'rganish kompyuterlarga yorliqli o'quv ma'lumotlarini aniq dasturlashtirilmasdan o'rganishga imkon beradi
  • Nazorat ostidagi o'quv vazifalari: regressiya va tasniflash
  • Chiziqli regressiya, non va yog 'parametrik algoritmi
  • Gradientning tushishi bilan parametrlarni o'rganish
  • Ortiqcha moslashish va tartibga solish

Keyingi bo'limda - 2.2 Bo'lim: Nazorat ostidagi o'rganish II - tasniflashning ikkita asosli usullari to'g'risida gaplashamiz: logistik regressiya va qo'llab-quvvatlovchi vektor mashinalari.

Amaliy materiallar va qo'shimcha o'qish

2.1a - chiziqli regressiya

Chiziqli regressiyani batafsilroq o'rganish uchun Statistik o'qishga kirishning 1-3 bo'limlarini o'qing. Kitob bepul onlayn rejimida mavjud va mashina yordamida tushunchalarni mashqlar bilan tushunish uchun juda yaxshi manba hisoblanadi.

Ko'proq amaliyot uchun:

  • Boston uy-joy ma'lumotlar bazasi bilan o'ynang. Siz Minitab va Excel kabi yoqimli GUI-lar bilan dasturiy ta'minotdan foydalanishingiz yoki Python yoki R bilan qiyin (ammo foydali) usulda foydalanishingiz mumkin.
  • Kaggle sinovida qo'lingizni sinab ko'ring, masalan. uy-joy narxini bashorat qiling va o'zingiz muammoga duch kelganingizdan so'ng, boshqalar bu muammoga qanday yondashganini ko'ring.

2.1b - gradient tushishini amalga oshirish

Python-da gradient tushishini amalda bajarish uchun ushbu qo'llanmani ko'rib chiqing. Va bu erda bir xil tushunchalarni yanada matematik jihatdan qat'iy tavsiflash.

Amalda, siz kamdan-kam hollarda gradient tushirishni noldan amalga oshirishingiz kerak bo'ladi, ammo sahnaning orqasida qanday ishlashini tushunish sizga undan samaraliroq foydalanishga va nima uchun ular ishlayotganda buzilishini tushunishga imkon beradi.

Agar kelajakda tarkib bilan xabardor bo'lishni istasangiz, quyidagi elektron pochta manzilingizni kiriting

Twitterda? Biz ham shundaymiz. Vishal va Samer bilan aloqada bo'ling

Odamlar uchun Machine Learning-dan ko'proq narsa

  • 1-qism: Nima uchun mashinani o'rganish masalalari
  • 2.1-qism: Nazorat ostidagi o'rganish
  • 2.2-qism: Nazorat ostidagi o'rganish II
  • 2.3-qism: Nazorat ostidagi o'rganish III
  • 3-qism: Nazorat qilinmaydigan o'rganish
  • 4-qism: Neyron tarmoqlari va chuqur o'rganish
  • 5-qism: mustahkamlashni o'rganish
  • Ilova: Eng yaxshi mashinalarni o'rganish manbalari