Artigos

5.1: Transformações Lineares - Matemática


objetivos de aprendizado

  1. Compreenda a definição de uma transformação linear e que todas as transformações lineares são determinadas pela multiplicação de matrizes.

Lembre-se de que quando multiplicamos uma matriz (m vezes n ) por um vetor de coluna (n vezes 1 ), o resultado é um vetor de coluna (m vezes 1 ). Nesta seção, discutiremos como, por meio da multiplicação de matrizes, uma matriz (m vezes n ) transforma um vetor de coluna (n vezes 1 ) em um vetor de coluna (m vezes 1 ).

Lembre-se de que o vetor (n vezes 1 ) dado por [ vec {x} = left [ begin {array} {r} x_1 x_2 vdots x_n end {array} direita] nonumber ] é dito pertencer a ( mathbb {R} ^ n ), que é o conjunto de todos os (n vezes 1 ) vetores. Nesta seção, discutiremos as transformações de vetores em ( mathbb {R} ^ n. )

Considere o seguinte exemplo.

Exemplo ( PageIndex {1} ): uma função que transforma vetores

Considere a matriz (A = left [ begin {array} {ccc} 1 & 2 & 0 2 & 1 & 0 end {array} right]. ) Mostre isso por multiplicação de matriz (A ) transforma vetores em ( mathbb {R} ^ 3 ) em vetores em ( mathbb {R} ^ 2 ).

Solução

Primeiro, lembre-se de que os vetores em ( mathbb {R} ^ 3 ) são vetores de tamanho (3 vezes 1 ), enquanto os vetores em ( mathbb {R} ^ {2} ) são de tamanho (2 vezes 1 ). Se multiplicarmos (A ), que é uma matriz (2 vezes 3 ), por um vetor (3 vezes 1 ), o resultado será um vetor (2 vezes 1 ). É isso que queremos dizer quando dizemos que (A ) transforma vetores.

Agora, para ( left [ begin {array} {c} x y z end {array} right] ) em ( mathbb {R} ^ 3 ), multiplique à esquerda pela matriz dada para obter o novo vetor. Este produto se parece com [ left [ begin {array} {rrr} 1 & 2 & 0 2 & 1 & 0 end {array} right] left [ begin {array} {r} x y z end {array} right] = left [ begin {array} {c} x + 2y 2x + y end {array} right] nonumber ] O produto resultante é um (2 vezes 1 ) vetor que é determinado pela escolha de (x ) e (y ). Aqui estão alguns exemplos numéricos. [ left [ begin {array} {ccc} 1 & 2 & 0 2 & 1 & 0 end {array} right] left [ begin {array} {c} 1 2 3 end {array} right] = left [ begin {array} {c} 5 4 end {array} right] nonumber ] Aqui, o vetor ( left [ begin { array} {c} 1 2 3 end {array} right] ) in ( mathbb {R} ^ 3 ) foi transformado pela matriz no vetor ( left [ begin { matriz} {c} 5 4 end {matriz} direita] ) em ( mathbb {R} ^ 2 ).

Aqui está outro exemplo: [ left [ begin {array} {rrr} 1 & 2 & 0 2 & 1 & 0 end {array} right] left [ begin {array} {r} 10 5 -3 end {array} right] = left [ begin {array} {r} 20 25 end {array} right] nonumber ]

A ideia é definir uma função que recebe vetores em ( mathbb {R} ^ {3} ) e entrega novos vetores em ( mathbb {R} ^ {2}. ) Neste caso, essa função é multiplicação pela matriz (A ).

Deixe (T ) denotar tal função. A notação (T: mathbb {R} ^ {n} mapsto mathbb {R} ^ {m} ) significa que a função (T ) transforma vetores em ( mathbb {R} ^ {n } ) em vetores em ( mathbb {R} ^ {m} ). A notação (T ( vec {x}) ) significa a transformação (T ) aplicada ao vetor ( vec {x} ). O exemplo acima demonstrou uma transformação alcançada pela multiplicação de matrizes. Neste caso, muitas vezes escrevemos [T_ {A} left ( vec {x} right) = A vec {x} nonumber ] Portanto, (T_ {A} ) é a transformação determinada por a matriz (A ). Neste caso, dizemos que (T ) é uma transformação de matriz.

Lembre-se da propriedade da multiplicação de matrizes que afirma que para os escalares (k ) e (p ), [A left (kB + pC right) = kAB + pAC nonumber ] Em particular, para (A ) uma matriz (m vezes n ) e (B ) e (C, ) (n vezes 1 ) vetores em ( mathbb {R} ^ {n} ), este fórmula é válida.

Em outras palavras, isso significa que a multiplicação da matriz dá um exemplo de uma transformação linear, que definiremos agora.

Definição ( PageIndex {1} ): Transformação Linear

Seja (T: mathbb {R} ^ {n} mapsto mathbb {R} ^ {m} ) uma função, onde para cada ( vec {x} in mathbb {R} ^ { n}, T left ( vec {x} right) in mathbb {R} ^ {m}. ) Então (T ) é um transformação linear se sempre que (k, p ) forem escalares e ( vec {x} _1 ) e ( vec {x} _2 ) forem vetores em ( mathbb {R} ^ {n} ) ((n vezes 1 ) vetores (), ) [T left (k vec {x} _1 + p vec {x} _2 right) = kT left ( vec {x} _1 right) + pT left ( vec {x} _ {2} right) nonumber ]

Considere o seguinte exemplo.

Exemplo ( PageIndex {2} ): Transformação Linear

Seja (T ) uma transformação definida por (T: mathbb {R} ^ 3 to mathbb {R} ^ 2 ) é definida por [T left [ begin {array} {c} x y z end {array} right] = left [ begin {array} {c} x + y xz end {array} right] mbox {para todos} left [ begin {array} {c} x y z end {array} right] in mathbb {R} ^ 3 nonumber ] Mostre que (T ) é uma transformação linear.

Solução

Por definição ( PageIndex {1} ), precisamos mostrar que (T left (k vec {x} _1 + p vec {x} _2 right) = kT left ( vec {x} _1 direita) + pT esquerda ( vec {x} _ {2} direita) ) para todos os escalares (k, p ) e vetores ( vec {x} _1, vec {x} _2 ). Vamos [ vec {x} _1 = left [ begin {array} {c} x_1 y_1 z_1 end {array} right], vec {x} _2 = left [ begin { array} {c} x_2 y_2 z_2 end {array} right] nonumber ] Então [ begin {alinhado} T left (k vec {x} _1 + p vec {x} _2 right) & = & T left (k left [ begin {array} {c} x_1 y_1 z_1 end {array} right] + p left [ begin {array} {c } x_2 y_2 z_2 end {array} right] right) & = & T left ( left [ begin {array} {c} kx_1 ky_1 kz_1 end {array } right] + left [ begin {array} {c} px_2 py_2 pz_2 end {array} right] right) & = & T left ( left [ begin {array } {c} kx_1 + px_2 ky_1 + py_2 kz_1 + pz_2 end {array} right] right) & = & left [ begin {array} {c} (kx_1 + px_2) + (ky_1 + py_2) (kx_1 + px_2) - (kz_1 + pz_2) end {array} right] & = & = & left [ begin {array} {c} (kx_1 + ky_1) + (px_2 + py_2) (kx_1 - kz_1) + (px_2 - pz_2) end {array} right] & = & left [ begin {array} {c} kx_1 + ky_1 kx_1 - kz_1 end {array} right] + left [ begin {array} {c} px_2 + py_2 px_2 - pz_2 end {array} right] & = & k left [ begin {array} {c} x_1 + y_1 x_1 - z_1 end {array} right] + p left [ begin {array} {c} x_2 + y_2 x_2 - z_2 end {array} right] & = & k T ( vec {x} _1) + p T ( vec {x} _2) end {alinhado} nonumber ] Portanto (T ) é uma transformação linear.

Dois exemplos importantes de transformações lineares são a transformação zero e a transformação de identidade. A transformação zero definida por (T left ( vec {x} right) = vec (0) ) para todos ( vec {x} ) é um exemplo de uma transformação linear. Da mesma forma, a transformação de identidade definida por (T left ( vec {x} right) = vec (x) ) também é linear. Reserve um tempo para provar isso usando o método demonstrado em Exemplo ( PageIndex {2} ).

Começamos esta seção discutindo as transformações de matriz, onde a multiplicação por uma matriz transforma vetores. Essas transformações de matriz são, na verdade, transformações lineares.

Teorema ( PageIndex {1} ): Transformações de matriz são transformações lineares

Seja (T: mathbb {R} ^ {n} mapsto mathbb {R} ^ {m} ) uma transformação definida por (T ( vec {x}) = A vec {x} ) Então (T ) é uma transformação linear.

Acontece que toda transformação linear pode ser expressa como uma transformação de matriz e, portanto, as transformações lineares são exatamente as mesmas que as transformações de matriz.


5.1: Transformações Lineares - Matemática

Suponha que $ M $ seja uma transformação linear operando em vetores bidimensionais.

Apelando para a linearidade de $ M $, vemos que

Podemos aplicar este mesmo processo para encontrar a saída de qualquer transformação linear que opere em vetores bidimensionais, desde que saibamos o que a transformação linear faz para $ begin1 0 fim$ e $ begin0 1 fim$.

Como tal, podemos abreviar o processo acima escrevendo $ M $ como uma matriz e avaliando $ M begin-6 8 end$ da seguinte forma:

Sabemos que podemos encontrar a forma de matriz para uma transformação linear, $ T $, em vetores bidimensionais, se conhecermos a saída de $ T begin1 0 fim$ e $ T begin0 1 fim$. E se soubermos a saída de $ T $ quando aplicada a outros vetores? Ainda podemos encontrar a forma de matriz de $ T $? Encontre a forma de matriz para $ T $ se os fatos abaixo forem conhecidos:

Mostre que se $ F $ e $ G $ são transformações lineares que operam em vetores bidimensionais, então a representação matricial de $ F-G $ é dada pelo seguinte:

Suponha que $ F $ seja uma transformação linear que opera em vetores tridimensionais. Vamos adotar a convenção de escrever tais transformações $ F $ como matrizes da seguinte forma

Use a linearidade de $ F $ para determinar $ F beginx y z end$.

Se $ F $ e $ G $ são as seguintes transformações lineares que operam em vetores tridimensionais, encontre a representação matricial de sua soma e composição.

Use as representações matriciais encontradas acima para encontrar a representação matricial das duas transformações lineares a seguir.

Suponha que $ F $ gire os vetores bidimensionais em $ theta $ graus, no sentido anti-horário sobre a origem. Convença-se de que $ F $ é uma transformação linear e, a seguir, encontre sua representação de matriz. Finalmente, use esta matriz para girar dois vetores de sua escolha em $ 25 ^ < circ> $.

Devemos nos convencer de que a rotação em $ theta $ graus é de fato uma transformação linear antes de prosseguir. As duas propriedades de uma transformação linear são válidas? Lembre-se de que $ F $ é uma transformação linear (operando em vetores) se e somente se, para todos os escalares $ c $ e vetores $ bar$ e $ bar$ nós temos:

Portanto, devemos nos perguntar:

Se esticarmos um vetor $ bar$ por um fator de $ c $ primeiro, e depois girar no sentido horário por $ theta ^ < circ> $, é o mesmo que girar o vetor $ bar$ primeiro e, em seguida, esticando-o por um fator de $ c $?

Se adicionarmos dois vetores $ bar$ e $ bar$ (da maneira normal, "cabeça com cauda") e, em seguida, girar o vetor que representa sua soma, é o mesmo resultado da primeira rotação dos vetores individuais $ bar$ e $ bar$ e depois juntá-los?

Geometricamente, devemos ser capazes de dizer "sim" rapidamente a ambas as perguntas. Como tal, podemos agora concentrar nossa atenção em encontrar uma forma de matriz para essa transformação linear. Suponha que desejamos que nossa matriz gire os vetores $ 25 ^ < circ> $ no sentido anti-horário. Lembre-se de que a primeira e a segunda colunas da forma da matriz para uma transformação linear (em vetores bidimensionais) indicam o que essa transformação faz aos vetores $ begin1 0 fim$ e $ begin0 1 fim$, respectivamente

Se nossa transformação é uma rotação anti-horária de 25 graus, observe que

$ begin1 0 fim rightarrow begin cos 25 ^ circ sin 25 ^ circ end quad textrm quad begin0 1 fim rightarrow begin- sin 25 ^ circ cos 25 ^ circ end$

Como tal, a forma de matriz que buscamos é:

$ begin cos 25 ^ circ & - sin 25 ^ circ sin 25 ^ circ & cos 25 ^ circ end$

Seguindo uma lógica semelhante, a forma de matriz para uma rotação anti-horária em qualquer ângulo $ theta $ é dada por

$ begin cos theta & - sin theta sin theta & cos theta end$

Com a matriz de rotação encontrada, girar um vetor específico é fácil.

Suponha que desejamos girar o vetor $ begin3 4 fim$ por $ 25 ^ circ $. Acabamos de encontrar

$ begin cos 25 ^ circ & - sin 25 ^ circ sin 25 ^ circ & cos 25 ^ circ end começar3 4 fim = begin3 cos 25 ^ circ - 4 sin 25 ^ circ 3 sin 25 ^ circ + 4 cos 25 ^ circ end aprox começar1.028 4.893 end$


5.1: Transformações Lineares - Matemática

Esta é a página da web para todo o curso. Consulte a página da sua seção na Web para obter informações adicionais.

Os alunos que precisam de uma substituição para se inscrever no curso devem entrar em contato com o coordenador do curso Weimin Chen [email protected] com as seguintes informações: (1) seções do curso que conflitam com outros cursos de sua programação acadêmica e (2) ) seção preferida do curso. (Infelizmente, para manter as seções equilibradas, não podemos garantir que você será designado para a seção de sua preferência.)


Livro didático e lição de casa online

O texto do curso é Álgebra linear e suas aplicações (5ª edição) por David Lay, Steven Lay e Judi McDonald.

O MyMathLab é necessário para este curso. Uma cópia eletrônica do livro está incluída na compra do MyMathLab. Vá para www.mymathlab.com (link) e use a ID do curso para sua própria seção (fornecida pelo instrutor de sua seção).

Os deveres de casa e questionários online serão atribuídos por meio do MyMathLab por seu instrutor.


Plano de estudos e programação semanal

Este é um curso introdutório à álgebra linear, cobrindo sistemas de equações lineares, matrizes, transformações lineares, determinantes, espaços vetoriais, autovalores e autovetores e ortogonalidade.

A programação abaixo fornece os tópicos do texto do curso a serem abordados a cada semana. (Esta é apenas uma orientação e pode ser modificada pelo seu instrutor conforme necessário.)


1 / 20--1 / 24: 1.1 Sistemas de equações lineares 1.2 Redução de linha e formas escalonadas 1.3 Equações vetoriais.

1 / 27--1 / 31: 1.3 (continuação) 1.4 A equação matricial Ax = b 1.5 Conjuntos de soluções de sistemas lineares.

2 / 3--2 / 7: 1.7 Independência linear 1.8 Introdução às transformações lineares.

2 / 10--2 / 14: 1.9 A matriz de uma transformação linear 2.1 Operações de matriz.

2 / 17--2 / 21: 2.2 O inverso de uma matriz 2.3 Caracterizações de matrizes invertíveis.

2 / 24--2 / 28: 3.1 Introdução aos determinantes 3.2 Propriedades dos determinantes.

3 / 2--3 / 6: 3.2 (continuação) 3.3 Regra de Cramer, volume e transformações lineares 4.1 Espaços vetoriais e subespaços.

3 / 9--3 / 13: 4.2 Espaços nulos, espaços de coluna e transformações lineares 4.3 Bases e conjuntos linearmente independentes.

3 / 23--3 / 27: 4.4 Sistemas de coordenadas 4.5 A dimensão de um espaço vetorial.

3 / 30--4 / 3: 4.6 Rank 5.1 Autovetores e autovalores.

4 / 6--4 / 10: 5.1 (continuação) 5.2 A equação característica.

4 / 13--4 / 17: 5.3 Diagonalização 5.5 Autovalores complexos.

4 / 20--4 / 24: 6.1 Produto interno, comprimento e ortogonalidade 6.2 Conjuntos ortogonais, 6.3 projeções ortogonais.

27/4-29: 6,3 (continuação), 6,4 O processo de Gram-Schmidt.

Haverá dois exames intermediários e um exame final. Os exames anteriores estão disponíveis aqui.

Você tem permissão para uma folha de notas de 8,5 & quot x 11 & quot (ambos os lados). Calculadoras e o livro são não permitido nos exames. Você deve trazer sua carteira de estudante (UCard) para cada exame.

Se você tiver um conflito documentado para um dos exames, para fazer o exame de reposição, você deve dar ao coordenador do curso Weimin Chen [email protected] pelo menos uma semana de aviso por escrito para um exame de meio de semestre e pelo menos duas semanas de aviso prévio por escrito para o exame final. Outros exames de reposição (por exemplo, devido a emergências médicas) serão realizados pelo instrutor da seção. Os exames de reposição irão não ser fornecido para acomodar planos de viagem.

O primeiro teste será realizado na quinta-feira, 27/02/20, das 19h às 21h, nos seguintes locais:

Seções 1,3,9 (Montezuma, Colmenarejo, Simonetti). HASA0020
Seções 2,4,5 (Montezuma, Oblomkov, Simone). MAH0108
Seções 6,7,8 (Chen, Mirkovic, Li) ISB0135

O programa do primeiro semestre é composto pelas seguintes seções do livro: 1.1, 1.2, 1.3, 1.4, 1.5, 1.7, 1.8, 1.9, 2.1.

Faça o exame simulado aqui. As soluções do exame simulado estão aqui.

O segundo teste será realizado na quinta-feira, 09/04/20, das 19h às 21h, nos locais TBA

O programa do segundo semestre é composto pelas seguintes seções do livro: 2.2, 2.3, 3.1, 3.2, 3.3, 4.1, 4.2, 4.3, 4.4, 4.5.

A data, hora e local do exame final são TBA pela universidade.

A nota do curso será calculada da seguinte forma: Primeiro exame intermediário 25% Segundo exame intermediário 25% Exame final 25% Trabalho de casa, questionários e participação nas aulas 25% (determinado pelo instrutor da seção).

As notas serão atribuídas às porcentagens do curso de acordo com a seguinte escala:

A: 90--100
A-: 87--89
B +: 84--86
B: 80-83
B-: 77-79
C +: 74--76
C: 70--73
C-: 67 - 69
D +: 64 - 66
D: 57 - 63
F: 0 - 56


Declaração de política de acomodação

UMass Amherst está empenhada em fornecer oportunidades educacionais iguais para todos os alunos. Um aluno com deficiência física, psicológica ou de aprendizagem documentada no arquivo dos Serviços para Pessoas com Deficiência pode ser elegível para acomodações acadêmicas para ajudá-lo a ter sucesso neste curso. Se você tiver uma deficiência documentada que requeira acomodação, notifique seu instrutor durante as duas primeiras semanas do semestre para que possamos tomar as providências necessárias.


Declaração de Honestidade Acadêmica

Uma vez que a integridade do empreendimento acadêmico de qualquer instituição de ensino superior exige honestidade na bolsa e na pesquisa, a honestidade acadêmica é exigida de todos os alunos da Universidade de Massachusetts Amherst. A desonestidade acadêmica é proibida em todos os programas da Universidade. A desonestidade acadêmica inclui, mas não se limita a: trapaça, fabricação, plágio e facilitação da desonestidade. Sanções apropriadas podem ser impostas a qualquer aluno que tenha cometido um ato de desonestidade acadêmica. Os instrutores devem tomar medidas razoáveis ​​para lidar com a má conduta acadêmica. Qualquer pessoa que tenha motivos para acreditar que um aluno cometeu desonestidade acadêmica deve levar essas informações ao instrutor do curso apropriado o mais rápido possível. Casos de desonestidade acadêmica não relacionados a um curso específico devem ser levados ao conhecimento do chefe ou presidente do departamento apropriado. Uma vez que se espera que os alunos estejam familiarizados com esta política e os padrões comumente aceitos de integridade acadêmica, a ignorância de tais padrões não é normalmente evidência suficiente de falta de intenção (http://www.umass.edu/dean_students/codeofconduct/acadhonesty/) .


Gen. Ed. declaração para matemática 235

MATH 235 é um curso de Educação Geral de três créditos que satisfaz os requisitos de educação geral R1 (Habilidades Básicas de Matemática) e R2 (Raciocínio Analítico) para graduação.

O Programa de Educação Geral da Universidade de Massachusetts Amherst oferece aos alunos uma oportunidade única de desenvolver pensamento crítico, comunicação e habilidades de aprendizagem que os beneficiarão por toda a vida. Para obter mais informações sobre o Programa de Educação Geral, visite a página do GenEd na web.

Resultados de aprendizagem para todos os cursos de educação geral:

O Math 235 satisfaz os seguintes objetivos da Educação Geral:

Conteúdo: Conhecer questões fundamentais, ideias e métodos de investigação / análise usados ​​em matemática: Os alunos aprenderão a analisar sistemas lineares, transformações e espaços usando matrizes. Ao aprender Álgebra Linear, os alunos desenvolverão habilidades de raciocínio abstrato para compreender sistemas e espaços de dimensões superiores que não podemos visualizar diretamente.

Pensamento crítico: os alunos demonstram pensamento criativo, analítico, quantitativo e crítico por meio de investigação, resolução de problemas e síntese: os alunos usarão habilidades de pensamento crítico para desenvolver e compreender a teoria das matrizes e os sistemas lineares, transformações e espaços que elas representam, bem como habilidades computacionais para analisar essas matrizes de forma eficiente.

Comunicação: Desenvolver alfabetização informacional e tecnológica: Os alunos desenvolverão suas habilidades de escrita articulando seu raciocínio de cálculos feitos e escrevendo provas formais durante o curso.

Demonstrar capacidade de aplicar perspectivas disciplinares e métodos de análise a problemas do mundo real (a sociedade em geral) ou outros contextos: O mundo real e aplicações teóricas em todos os campos podem ser representadas ou estimadas na Álgebra Linear por matrizes. Os alunos aprenderão métodos lógicos e computacionais para analisar essas matrizes.

Resultados de aprendizagem para as designações R1 e R2:

Como o Math 235 pressupõe habilidades matemáticas básicas, ele carrega a designação para o requisito de habilidades matemáticas básicas (R1). Além disso, o curso atende aos seguintes objetivos do requisito de Raciocínio Analítico (R2):

Avance as habilidades de raciocínio matemático ou formal de um aluno além do nível de competência básica: Ao aprender Álgebra Linear em Matemática 235, os alunos irão pensar criticamente e aprimorar suas habilidades de raciocínio matemático analisando matrizes e os sistemas lineares, transformações e espaços que representam.

Aumente a sofisticação do aluno como consumidor de informações numéricas: A Álgebra Linear oferece uma maneira eficiente, embora abstrata, de analisar informações numéricas de conceitos da matemática. Os aplicativos em todos os campos podem ser representados ou estimados por matrizes. Os alunos formarão essas conexões entre teorias matemáticas e álgebra linear, bem como aprenderão métodos dentro da álgebra linear para fazer cálculos formais relacionados.


Notas de aula para matemática 3410, com exemplos computacionais

Lembre-se do Exemplo 2.1.3 no Capítulo 2 que, dada qualquer matriz (m vezes n ) (A text <,> ), podemos definir a transformação da matriz (T_A: R ^ n para R ^ m ) por (T_A ( xx) = A xx text <,> ) onde vemos ( xx in R ^ n ) como um vetor de coluna (n vezes 1 ).

Por outro lado, dado qualquer mapa linear (T: R ^ n to R ^ m text <,> ) se deixarmos ( basis) denotam a base padrão de ( R ^ n text <,> ) então a matriz

Já discutimos o fato de que esta ideia generaliza: dada uma transformação linear (T: V para W text <,> ) onde (V ) e (W ) são espaços vetoriais de dimensão finita, é possível representar (T ) como uma transformação de matriz.

A representação depende da escolha das bases para (V ) e (W text <.> ). Lembre-se da definição do isomorfismo do coeficiente, da Definição 2.3.4 na Seção 2.3. Se ( dim V = n ) e ( dim W = m text <,> ) isso nos dá isomorfismos (C_B: V to R ^ n ) e (C_D: W to R ^ m ) dependendo da escolha de uma base (B ) para (V ) e uma base (D ) para (W text <.> ) Esses isomorfismos definem uma transformação de matriz (T_A: R ^ n para R ^ m ) de acordo com o diagrama que fornecemos na Figura 2.3.5.

Devemos enfatizar um ponto importante sobre o isomorfismo do coeficiente, entretanto. Depende da escolha da base, mas também da pedido dos elementos de base. Assim, geralmente trabalharemos com um base ordenada neste capítulo. Ou seja, em vez de simplesmente pensar em nossa base como um conjunto, pensaremos nela como uma lista ordenada. A ordem é importante, uma vez que dada uma base (B = base text <,> ) contamos com o fato de que podemos escrever qualquer vetor ( vv ) exclusivamente como

para fazer a atribuição (C_B ( vv) = bbm c_1 vdots c_n ebm text <.> )

Exercício 5.1.1.

Mostre que o isomorfismo do coeficiente é, de fato, um isomorfismo linear de (V ) a ( R ^ n text <.> )

É claro que (C_B ( mathbf <0>) = mathbf <0> text <,> ) uma vez que a única maneira de escrever o vetor zero em (V ) em termos de (B ) ( ou, de fato, qualquer conjunto independente) é definir todos os escalares iguais a zero.

Se tivermos dois vetores ( vv, ww ) dados por

Finalmente, para qualquer escalar (c text <,> ) temos

Isso mostra que (C_B ) é linear. Para ver que (C_B ) é um isomorfismo, podemos simplesmente observar que (C_B ) leva a base (B ) para a base padrão de ( R ^ n text <.> ) Alternativamente, podemos dar o inverso: (C_B ^ <-1>: R ^ n para V ) é dado por

Dados (T: V para W ) e isomorfismos de coeficiente (C_B: V para R ^ n, C_D: W para R ^ m text <,> ) o mapa (C_DTC_B ^ <- 1>: R ^ n to R ^ m ) é uma transformação linear, e a matriz dessa transformação dá uma representação de (T text <.> ) Explicitamente, seja (B = basis) ser uma base ordenada para (V text <,> ) e deixar (D = basis) ser uma base ordenada para (W text <.> ) Uma vez que (T ( vv_i) in W ) para cada ( vv_i in B text <,> ) existem escalares únicos (uma_ text <,> ) com (1 leq i leq m ) e (1 leq j leq n ) de modo que

para (j = 1, ldots, n text <.> ) Isso nos dá a matriz (m vezes n ) (A = [a_] text <.> ) Observe que a primeira coluna de (A ) é (C_D (T ( vv_1)) text <,> ) a segunda coluna é (C_D (T ( vv_2) ) text <,> ) e assim por diante.

Dado ( xx in V text <,> ) write ( xx = c_1 vv_1 + cdots + c_n vv_n text <,> ) de modo que (C_B ( xx) = bbm c_1 vdots c_n ebm text <.> ) Então

Assim, vemos que (C_DT = T_AC_B text <,> ) ou (T_A = C_DTC_B ^ <-1> text <,> ) conforme o esperado.

Definição 5.1.2. A matriz (M_(T) ) de um mapa linear.

Sejam (V ) e (W ) espaços vetoriais de dimensão finita, e seja (T: V a W ) um mapa linear. Seja (B = base) e (D = base) ser bases ordenadas para (V ) e (W text <,> ) respectivamente. Então o (M_(T) ) de (T ) em relação às bases (B ) e (D ) é definido por

Em outras palavras, (A = M_(T) ) é a matriz única (m vezes n ) tal que (C_DT = T_AC_B text <.> ) Isso dá a propriedade de definição

como foi demonstrado acima.

Exercício 5.1.3.

Suponha que (T: P_2 ( R) to R ^ 2 ) seja dado por

Calcule a matriz de (T ) em relação às bases (B = <1,1-x, (1-x) ^ 2 > ) de (P_2 ( R) ) e ( D = <(1,0), (1, -1) > ) de ( R ^ 2 text <.> )

Quando calculamos a matriz de uma transformação em relação a uma base não padrão, não precisamos nos preocupar em como escrever vetores no domínio em termos dessa base. Em vez disso, simplesmente conectamos os vetores de base na transformação e, em seguida, determinamos como escrever a saída em termos da base do codomínio. No entanto, se quisermos usar esta matriz para calcular os valores de (T: V para W text <,> ), então precisamos de uma maneira sistemática de escrever os elementos de (V ) em termos da base dada.

Exemplo 5.1.4. Trabalhando com a matriz de uma transformação.

Seja (T: P_2 ( R) to R ^ 2 ) uma transformação linear cuja matriz é dada por

em relação às bases ordenadas (B = <1 + x, 2-x, 2x + x ^ 2 > ) de (P_2 ( R) ) e (D = <(0,1 ), (- 1,1) > ) de ( R ^ 2 text <.> ) Encontre o valor de (T (2 + 3x-4x ^ 2) text <.> )

Precisamos escrever a entrada (2 + 3x-4x ^ 2 ) em termos da base (B text <.> ) Isso equivale a resolver o sistema de equações dado por

Claro, podemos configurar e resolver este sistema facilmente, mas vamos tentar ser sistemáticos e obter um resultado mais útil para problemas futuros. Uma vez que podemos facilmente determinar como escrever qualquer polinômio em termos de base padrão ( <1, x, x ^ 2 > text <,> ), é suficiente saber como escrever esses três polinômios em termos de nosso base.

A princípio, isso parece mais trabalho. Afinal, agora temos três sistemas para resolver:

No entanto, todos os três sistemas têm a mesma matriz de coeficientes, então podemos resolvê-los simultaneamente, adicionando três colunas de “constantes” à nossa matriz aumentada.

Mas esta é exatamente a matriz aumentada que encontraríamos se estivéssemos tentando encontrar o inverso da matriz

cujas colunas são as representações dos coeficientes de nossos vetores de base dados em termos da base padrão.

Calculamos (usando a célula Sage abaixo) que

Esta matriz primeiro converte o vetor de coeficiente para um polinômio (p (x) ) com respeito à base padrão no vetor de coeficiente para nossa base dada (B text <,> ) e então multiplica pela matriz que representa nosso transformação. O resultado será o vetor de coeficientes para (T (p (x)) ) com respeito à base (D text <.> )

O polinômio (p (x) = 2 + 3x-4x ^ 2 ) tem vetor de coeficiente ( bbm 2 3 - 4 ebm ) com relação à base padrão. Descobrimos que (M (T) P ^ <-1> bbm 2 3 - 4 ebm = bbm 12 - 10 ebm text <.> ) Os coeficientes (12 ) e (- 10 ) são os coeficientes de (T (p (x)) ) com relação à base (D text <.> ) Assim,

Observe que na última etapa demos a resposta “simplificada” ((10,2) text <,> ) que é simplificada principalmente por ser expressa em relação à base padrão.

Observe que também podemos introduzir a matriz (Q = bbm 0 amp -1 1 amp 1 ebm ) cujas colunas são os vetores de coeficiente dos vetores na base (D ) em relação ao base padrão. O efeito da multiplicação por (Q ) é converter os coeficientes em relação a (D ) em um vetor de coeficientes em relação à base padrão. Podemos então escrever uma nova matriz ( hat(T) = QM (T) P ^ <-1> text <> ) esta nova matriz é agora a representação da matriz de (T ) em relação ao padrão bases de (P_2 ( R) ) e ( R ^ 2 text <.> ) Verificamos que

Achamos que ( tilde(T) = bbm 1 amp 0 amp -2 0 amp 2 amp 1 ebm text <.> ) Isso nos permite determinar que para um polinômio geral (p (x) = a + bx + cx ^ 2 text <,> )

e, portanto, nossa transformação original deve ter sido

O exemplo anterior ilustrou algumas observações importantes que são verdadeiras em geral. Não daremos a prova geral, mas resumimos os resultados em um teorema.

Teorema 5.1.5.

Suponha que (T: V para W ) seja uma transformação linear, e suponha que (M_0 = M_(T) ) é a matriz de (T ) com respeito às bases (B_0 ) de (V ) e (D_0 ) de (W text <.> ) Let (B_1 = base) e (D_1 base) ser qualquer outra escolha de base para (V ) e (W text <,> ) respectivamente. Deixar

sejam matrizes cujas colunas são os vetores de coeficientes dos vetores em (B_1, D_1 ) em relação a (B_0, D_0 text <.> ) Então a matriz de (T ) em relação às bases ( B_1 ) e (D_1 ) é

A relação entre os diferentes mapas é ilustrada na Figura 5.1.6 abaixo. Nesta figura, os mapas (V para V ) e (W para W ) são os mapas identidade, correspondendo a representar o mesmo vetor em relação a duas bases diferentes. As setas verticais são os isomorfismos do coeficiente (C_, C_, C_, C_ text <.> )

Figura 5.1.6. Matriz de diagramação de uma transformação em relação a duas opções diferentes de base

Geralmente aplicamos o Teorema 5.1.5 no caso em que (B_0, D_0 ) são os padrão bases para (V, W text <,> ) uma vez que, neste caso, as matrizes (M_0, P, Q ) são fáceis de determinar, e podemos usar um computador para calcular (P ^ <- 1 > ) e o produto (QM_0P ^ <-1> text <.> )

Exercício 5.1.7.

Suponha que (T: M_ <22> ( R) a P_2 ( R) ) tenha a matriz

com respeito às bases

de (M_ <22> ( R) ) e (D = <1, x, x ^ 2 > ) de (P_2 ( R) text <.> ) Determine uma fórmula para (T ) em termos de uma entrada geral (X = bbm a amp b c amp d ebm text <.> )

Devemos primeiro escrever nossa contribuição geral em termos da base dada. Com relação à base padrão

temos a matriz (P = bbm 1 amp 0 amp 0 amp 1 0 amp 1 amp 1 amp 0 0 amp 0 amp 1 amp 0 0 amp 1 amp 0 amp 1 ebm text <,> ) representando a mudança da base (B ) a base (B_0 text <.> ) A base (D ) de (P_2 ( R) ) já é a base padrão. Para uma matriz (X = bbm a amp b c amp d ebm ), encontramos

Mas isso é igual a (C_D (T (X)) text <,> ) então

Em livros didáticos como o de Sheldon Axler Álgebra Linear feita da maneira certa que se concentram principalmente em transfomrações lineares, a construção acima da matriz de uma transformação com relação às escolhas de bases pode ser usada como uma motivação primária para introduzir matrizes e determinar suas propriedades algébricas. Em particular, a regra para multiplicação de matrizes, que pode parecer peculiar à primeira vista, pode ser vista como uma consequência da composição de mapas lineares.

Teorema 5.1.8.

Sejam (U, V, W ) espaços de vetores de dimensão finita, com bases ordenadas (B_1, B_2, B_3 text <,> ) respectivamente. Sejam (T: U para V ) e (S: V para W ) mapas lineares. Então

Prova .

Vamos ( xx in U text <.> ) Então (C_(ST ( xx)) = M_(ST) C_( xx) text <.> ) Por outro lado,

Desde (C_) é invertível, segue-se o resultado.

Ser capaz de expressar uma transformação linear geral em termos de uma matriz é útil, uma vez que questões sobre transformações lineares podem ser convertidas em questões sobre matrizes que já sabemos como resolver. Em particular,

(T: V para W ) é um isomorfismo se e somente se (M_(T) ) é invertível para alguma (e, portanto, toda) escolha de bases (B ) de (V ) e (D ) de (W text <.> )

A classificação de (T ) é igual à classificação de (M_(T) ) (e isso não depende da escolha da base).

O kernel de (T ) é isomórfico ao espaço nulo de (M_(T) text <.> )

A seguir, vamos examinar dois tópicos em particular. First, if (T:V o V) is a linear operator, then it makes sense to consider the matrix (M_B(T)=M_(T)) obtained by using the same basis for both domain and codomain. Second, we will want to know how this matrix changes if we change the choice of basis.


Classes of linear transformations

Linear transformations are divided into the following types.

Uma. Rigid transformations (distance preserving)

Rigid transformations leave the shape, lengths and area of the original object unchanged. Rigid transformations are:

B. Similarity transformations (angle preserving)

Similarity transformations preserve the angles of the original object, but not necessarily the size. Similarity transformations are:

  • Translation
  • Rotation
  • Uniform scale (the same amount of scale in the x- e y-directions)

C. Affine transformations (parallel preserving)

Affine transformations preserve any parallel lines, but may change the shape and size. Affine transformations are:

Notice Rigid transformations are a subset of Similarity transformations, which are in turn a subset of Affine transformations.


Math Insight

Let $A$ be a $2 imes 3$ matrix, say egin A = left[ egin 1 & 0 & -1 3 & 1 & 2 end ight]. fim What do you get if you multiply $A$ by the vector $vc=(x,y,z)$? Remembering matrix multiplication, we see that egin Avc = left[ egin 1 & 0 & -1 3 & 1 & 2 end ight] left[ egin x y z end ight] = left[ egin x - z 3x + y +2z end ight] =(x-z,3x+y+2z). fim

If we define a function $vc(vc) = Avc$, we have created a function of three variables $(x,y,z)$ whose output is a two-dimensional vector $(x-z,3x+y+2z)$. Using function notation, we can write $vc : R^3 o R^2$. We have created a vector-valued function of three variables. So, for example, $vc(1,2,3) = (1-3,3cdot 1 + 2 + 2 cdot 3) = (-2, 11)$.

Given any $m imes n$ matrix $B$, we can define a function $vc: R^n o R^m$ (note the order of $m$ and $n$ switched) by $vc(vc) = B vc$, where $vc$ is an $n$-dimensional vector. As another example, if egin C = left[ egin 5 & -3 1 & 0 -7 & 4 0 & -2 end ight], end then the function $vc(vc) = C vc$, where $y=(y_1, y_2)$, is $vc(vc) = (5y_1-3y_2,y_1,-7y_1+4y_2,-2y_2)$.

In this way, we can associate with every matrix a function. What about going the other way around? Given some function, say $vc: R^n o R^m$, can we associate with $vc(vc)$ some matrix? We can only if $vc(vc)$ is a special kind of function called a linear transformation. The function $vc(vc)$ is a linear transformation if each term of each component of $vc(vc)$ is a number times one of the variables. So, for example, the functions $vc(x,y)=(2x+y,y/2)$ and $vc(x,y,z)=(z,0,1.2 x)$ are linear transformation, but none of the following functions are: $vc(x,y)=(x^2,y,x)$, $,vc(x,y,z)=(y,xyz)$, or $vc(x,y,z)=(x+1,y,z)$. Note that both functions we obtained from matrices above were linear transformations.

Let's take the function $vc(x,y)=(2x+y,y,x-3y)$, which is a linear transformation from $R^2$ to $R^3$. The matrix $A$ associated with $vc$ will be a $3 imes 2$ matrix, which we'll write as egin A = left[ egin a_ <11>& a_<12> a_ <21>& a_<22> a_ <31>& a_ <32>end ight]. fim We need $A$ to satisfy $vc(vc)=Avc$, where $vc=(x,y)$.

The easiest way to find $A$ is the following. If we let $vc=(1,0)$, then $f(vc)= Avc$ is the first column of $A$. (Can you see that?) So we know the first column of $A$ is simply egin f(1,0)=(2,0,1) = left[ egin 21 end ight]. fim

Similarly, if $vc=(0,1)$, then $f(vc)=Avc$ is the second column of $A$, which is egin f(0,1) = (1,1,-3) = left[ egin 11-3 end ight]. fim

Putting these together, we see that the linear transformation $vc(vc)$ is associated with the matrix egin A= left[ egin 2 & 1 0 & 1 1 & -3 end ight]. fim

The important conclusion is that every linear transformation is associated with a matrix and vice versa.


The idea of a mapping

In mathematics, sometimes we use the word mapping to describe the same idea of a transformation. You are already familiar with mappings. For example, we could make up a rule that maps the real number to the real numbers. One such rule could be “multiply by 10”. Then 8 would be mapped to 80, and 3 would be mapped to 30, and so on.

Transformations in linear algebra are mappings as well, but they map vectors to vectors. This can be done with a rule described using a formula, or in the case of mappings between (R^n) and (R^m), maybe a matrix.

Remember that not all transformations are linear, but many that you study in linear algebra will be, and that yields a lot of useful theorems and problem solving techniques.

In this lesson, we will only consider transformations between the vector spaces(R^n) and (R^m) (for some m and n). See: Euclidean space.


Table of Contents for Introduction to Linear Algebra (5th edition 2016)

  • 1 Introduction to Vectors
    • 1.1 Vectors and Linear Combinations
    • 1.2 Lengths and Dot Products
    • 2.1 Vectors and Linear Equations
    • 2.2 The Idea of Elimination
    • 2.3 Elimination Using Matrices
    • 2.4 Rules for Matrix Operations
    • 2.6 Elimination = Factorization: UMA = LU
    • 2.7 Transposes and Permutations
    • 3.1 Spaces of Vectors
    • 3.2 The Nullspace of UMA: Solving Machado = 0 e Rx = 0
    • 3.3 The Complete Solution to Machado = b
    • 3.4 Independence, Basis and Dimension
    • 4.1 Orthogonality of the Four Subspaces
    • 4.2 Projections
    • 4.3 Least Squares Approximations
    • 4.4 Orthonormal Bases and Gram-Schmidt
    • 5.1 The Properties of Determinants
    • 5.2 Permutations and Cofactors
    • 5.3 Cramer’s Rule, Inverses, and Volumes
    • 8.1 The Idea of a Linear Transformation
    • 8.2 The Matrix of a Linear Transformation
    • 8.3 The Search for a Good Basis
    • 9.1 Complex Numbers
    • 9.2 Hermitian and Unitary Matrices
    • 9.3 The Fast Fourier Transform
    • 10.1 Graphs and Networks
    • 10.2 Matrices in Engineering
    • 10.3 Markov Matrices, Population, and Economics
    • 10.4 Linear Programming
    • 10.5 Fourier Series: Linear Algebra for Functions
    • 10.6 Computer Graphics
    • 10.7 Linear Algebra for Cryptography
    • 11.1 Gaussian Elimination in Practice
    • 11.2 Norms and Condition Numbers
    • 11.3 Iterative Methods and Preconditioners

    Each section of the book has a Problem Set.


    New Features:

    Modern View of Matrix Multiplication – The definitions and proofs focus on the columns of a matrix rather than on the matrix entries.

    Early Introduction of Key Concepts – Many fundamental ideas of linear algebra are introduced within the first seven lectures, in the concrete setting of Rn, and then gradually examined from different points of view.

    Linear Transformations – Linear transformations form a “thread” that is woven into the fabric of the text. Their use enhances the geometric flavor of the text.

    Eigenvalues and Dynamical Systems – Eigenvalues appear fairly early in the text, in Chapters 5 and 7. Because this material is spread over several weeks, students have more time than usual to absorb and review these critical concepts.

    Orthogonality and Least-Squares Problems – These topics receive a more comprehensive treatment than is commonly found in beginning texts.


    Math Insight

    A linear transformation (or a linear map) is a function $vc: R^n o R^m$ that satisfies the following properties:

    for any vectors $vc, vc in R^n$ and any scalar $a in R$.

    It is simple enough to identify whether or not a given function $vc(vc)$ is a linear transformation. Just look at each term of each component of $vc(vc) $. If each of these terms is a number times one of the components of $vc$, then $vc$ is a linear transformation.

    Therefore, the function $vc(x,y,z) = (3x-y, 3z, 0, z-2x)$ is a linear transformation, while neither $vc(x,y,z) = (3x-y, 3z+2, 0,z-2x)$ nor $vc(x,y,z) = (3x-y, 3xz, 0,z-2x)$ are linear transformations. The function $vc$ has a nonlinear component $3xz$ that disqualifies it. What about the function $vc$? It's the second component $3z+2$ that's the problem because the term 2 is a constant that doesn't contain any components of our input vector $(x,y,z)$.

    It's easy to see that the function $vc$ violates the second condition above. In particular, if you set $a=0$ in that second condition, you see that each linear transformation must satisfy $vc(vc<0>) = vc<0>$ but $vc(0,0,0) = (0,2,0,0)$. The condition for a linear transformation is stronger than the condition one learns in grade school for a function whose graph is a line. A single variable function $f(x)=ax+b$ is not a linear transformation unless its y-intercept $b$ is zero.

    A useful feature of a feature of a linear transformation is that there is a one-to-one correspondence between matrices and linear transformations, based on matrix vector multiplication. So, we can talk without ambiguity of a matrix associated with a linear transformation $vc(vc)$.


    Assista o vídeo: Álgebra Linear: Transformações Lineares parte 1 de 4 (Dezembro 2021).