L’AI è ovunque e sarà sempre più rilevante negli anni a venire. Scopo di questa serie è quello di spiegarvi cosa c’è dietro a una rete neurale, perché fanno quello che fanno. Ripercorriamo con completezza la storia delle reti neurali dagli anni 50 fino alla odierna GPT, concentrandoci sulle reti che trattano il linguaggio.

00:00:00 – Intro
00:00:17 – Disclamer iniziale
00:01:24 – Definizione di AI
00:02:59 – Task e Task nell’NLP
00:08:25 – Perché le reti neurali?
00:10:58 – Percettrone
00:19:00 – Esempio del Percettrone
00:29:40 – Feed Forward Networks
00:32:30 – Esempio di FFN
00:58:30 – Dal testo ai numeri: 1 of V Encoding
01:04:24 – Intro agli embeddings
01:13:00 – Distributional Hypotesis e co-occurence matrix
01:24:45 – GIGACHAD Mikolov e word2vec
01:40:35 – Le reti neurali sono black box
01:44:25 – Boolean
01:52:39 – Visualizzazione degli embeddings

Boolean Data Week: una settimana di lezioni gratuite per scoprire le basi della data analytics.
Partecipa dal 3 aprile: https://advl.ink/boolean2304/enkk

Questi contenuti sono prodotti in live, quindi se ti piace Enkk, adorerai Enkk in Live su twitch.tv/enkk ogni sabato e domenica dalle 17 alle 4

LINK UTILI:
Enkk in Live: https://twitch.tv/enkk/
Reddit: https://www.reddit.com/r/enkk/
Enkk IG: https://www.instagram.com/enkkgram/
Il mio shop Amazon: https://www.amazon.it/shop/enkk

Edit by Coste – https://www.youtube.com/user/CosteLombo

Source

admin

ClicGo Demo