O que é um vetor em álgebra linear e como ele aparece em data science?
Um vetor é uma coleção ordenada de números (componentes). Em data science, representa uma observação, uma amostra ou os pesos de um modelo (ex: parâmetros em regressão linear).
O que é uma matriz e para que serve em machine learning?
Uma matriz é um conjunto de vetores organizados em linhas e colunas. Em ML, é usada para representar datasets (cada linha = amostra, cada coluna = variável).
O que é a transposição de uma matriz e por que é importante?
É o processo de trocar linhas por colunas. Usado em produtos matriciais e cálculo de gradientes (ex: Aᵀ·A em regressão linear normal equation).
Quando é possível multiplicar duas matrizes?
Quando o número de colunas da primeira matriz é igual ao número de linhas da segunda.
O que representa o produto escalar entre dois vetores?
Mede o “alinhamento” entre vetores — se forem perpendiculares, o produto é 0.
Usado em redes neurais para calcular ativações e similaridade (ex: embeddings).
O que é a norma de um vetor e qual sua utilidade?
É o comprimento (magnitude) do vetor.
Usado para normalização de dados e regularização (ex: L2 regularization em modelos).
Qual a função da matriz identidade?
É o “1” das matrizes — A·I = A.
Usada em decomposições e para encontrar inversas.
O que é a matriz inversa e onde ela aparece em ML?
É a matriz que satisfaz A·A⁻¹ = I.
Usada, por exemplo, para resolver sistemas lineares na regressão linear com fórmula fechada: θ = (XᵀX)⁻¹Xᵀy.
Por que autovalores e autovetores são importantes em ML?
Eles mostram direções de maior variação dos dados.
Base do PCA (Análise de Componentes Principais), usado para redução de dimensionalidade.
O que é SVD e por que é usada em data science?
A Decomposição em Valores Singulares (SVD) decompõe uma matriz em 3 partes (UΣVᵀ) e é usada para compressão de dados, recomendação e redução de ruído (PCA usa SVD).
O que é o produto vetorial entre dois vetores em álgebra linear?
É uma operação entre dois vetores tridimensionais que resulta em um novo vetor perpendicular a ambos. Representa a área do paralelogramo formado pelos vetores e é útil para calcular direções ortogonais em espaços 3D.
Qual a diferença prática entre o produto escalar e o produto vetorial em Data Science?
Produto escalar: mede similaridade entre vetores (ângulo → correlação).
Produto vetorial: mede perpendicularidade e direção no espaço.
O escalar é mais usado em modelos preditivos, enquanto o vetorial aparece em modelagem geométrica e dados espaciais.
Qual a relação entre o produto vetorial e o gradiente em machine learning?
Ambos envolvem conceitos de direção e magnitude.
O gradiente aponta a direção de maior crescimento de uma função; o produto vetorial, por outro lado, fornece uma direção ortogonal — útil em otimizações geométricas e modelos baseados em vetores de rotação (ex: embeddings espaciais).
O que é o produto escalar entre dois vetores?
É uma operação que resulta em um número (escalar), obtido multiplicando as componentes correspondentes dos vetores e somando os resultados.
Como o produto escalar é usado para medir similaridade entre vetores em Machine Learning?
Ele mede o grau de alinhamento entre dois vetores.
Quando os vetores estão na mesma direção, o produto escalar é máximo;
quando são ortogonais, é zero.
É base para o cálculo da similaridade do cosseno, amplamente usada em recomendações e NLP.
Qual a aplicação do produto escalar em redes neurais?
Em cada neurônio, o produto escalar é usado para combinar entradas e pesos.
Ele representa a soma ponderada das entradas, que é passada pela função de ativação — base do cálculo forward nas redes neurais.
Como o produto escalar é aplicado em redução de dimensionalidade (ex: PCA)
O produto escalar é usado para projetar dados em novos eixos (componentes principais).
Essa projeção mede quanto cada vetor de dados contribui em uma direção específica, ajudando a identificar as direções de maior variância nos dados.
Qual o papel do produto escalar em otimização e gradiente descendente?
O produto escalar entre o vetor gradiente e uma direção de atualização indica o quanto o passo move o modelo em direção ao mínimo.
É usado para ajustar a taxa de aprendizado e determinar se a direção escolhida é eficiente para reduzir a perda.
O que são variáveis categóricas?
São variáveis que representam categorias ou grupos, em vez de valores numéricos. Exemplos: gênero, estado civil, cor dos olhos.
Qual é a principal característica das variáveis categóricas?
Elas não têm ordem numérica e servem apenas para classificar ou rotular observações.
Em que tipo de análise são usadas as variáveis categóricas?
São usadas em análises estatísticas descritivas e em modelos preditivos após codificação (como one-hot encoding ou label encoding).
Como variáveis categóricas são representadas numericamente em machine learning?
Através de técnicas de codificação, como One-Hot Encoding (criação de colunas binárias) ou Label Encoding (números inteiros para cada categoria).
Quais são os dois tipos de variáveis categóricas?
Nominais (sem ordem) e Ordinais (com ordem lógica entre categorias).
O que são variáveis nominais?
São variáveis categóricas sem ordem ou hierarquia entre as categorias. Exemplo: cor dos olhos (azul, verde, castanho).