pres 2 eembedings

0.0(0)
Studied by 0 people
call kaiCall Kai
learnLearn
examPractice Test
spaced repetitionSpaced Repetition
heart puzzleMatch
flashcardsFlashcards
GameKnowt Play
Card Sorting

1/7

encourage image

There's no tags or description

Looks like no tags are added yet.

Last updated 2:01 AM on 5/6/26
Name
Mastery
Learn
Test
Matching
Spaced
Call with Kai

No analytics yet

Send a link to your students to track their progress

8 Terms

1
New cards

embeddings

vectores densos utilizados para representar texto. Sus dimensiones son fijas y no dependen del tamaño del vocabulario.

2
New cards

diferencia con bag of words y tf-idf

capturan el significado semántico de palabras o frases

3
New cards

Los embeddings capturan relaciones semánticas como direcciones en el espacio vectorial:

Estas relaciones emergen del entrenamiento sin ser programadas explícitamente. El modelo aprende que la "dirección" de género o de capital-país es consistente en el espacio.

<p>Estas relaciones emergen del entrenamiento sin ser programadas explícitamente. El modelo aprende que la "dirección" de género o de capital-país es consistente en el espacio.</p>
4
New cards

Word2Vec

primeros modelos exitosos para aprender embeddings de palabras. Aprende vectores de palabras a partir de grandes corpus de text

5
New cards

continous bag of words

Esta variante de Word2Vec predice la palabra central dado su contexto. Es decir, el modelo recibe las palabras que rodean una palabra central desconocida y predice el vector para esta palabra.

6
New cards

skip=gram

Esta variante predice las palabras de contexto dada la palabra central. El modelo recibe una palabra y predice las palabras que más probablemente la rodeen en el texto.

7
New cards

Word2Vec con Gensin

model = Word2Vec(sentences, vector_size=100, window=5, min_count=1, sg=1) vector = model.wv["cat"]

8
New cards