Números complejos

Los números complejos \mathbb C puede representarse como la suma de un número real y un número imaginario.

a = a_{r}+ia_{i}, con  i=\sqrt{-1} y:

  • a_{r} componente real, a_{r} = \Re (a)
  • a_{i} componente imaginaria, a_{i} = \Im (a)

Operaciones con complejos

Suma

a+b=(a_{r}+b_{r})+i(a_{i}+b_{i})\in \mathbb{C}

Producto

Recordemos que i^{2}=-1

ab=(a_{r}+ia_{i})(b_{r}+ib_{i})=(a_{r}b_{r}-a_{i}b_{i})+i(a_{r}b_{i}+a_{i}b_{r})\in \mathbb{C}

Conjugado

El conjugado se obtiene cambiando el signo de su componente imaginaria.

\bar{a}=a_r-ia_i o a^*=a_r-ia_i

  • La conjugación del denominador complejo juega el mismo papel que la racionalización de un denominador irracional. Se busca que el denominador sea real.
  • Facilita la división de números complejos, pues al conjugar el denominador, el cociente se transforma en un producto del dividendo por el inverso multiplicativo del divisor.
  • Permite calcular el módulo de cualquier número complejo.

Norma(Módulo)

Es el número real positivo que mide su tamaño y generaliza el valor absoluto de un número real. Esta noción es particularmente útil para definir una distancia en el plano complejo.

|a|^2=a^*a=(a_r-ia_i)(a_r+ia_i)=a_r^2+ia_ra_i-ia_ia_r+a_i^2=a_r^2+a_i^2

\Rightarrow |a|=+\sqrt{a_r^2+a_i^2}\in \mathbb{R}

División

\frac{a}{b}=\frac{ab^*}{bb^*}

=\frac{(a_r+ia_i)(b_r-ib_i)}{|b|^2}

=\frac{(a_rb_r+a_ib_i)+i(a_ib_r-a_rb_i}{|b|^2}\in \mathbb{C}

Forma polar

Podemos representar los números complejos como puntos en el plano, cada punto del plano se determina por una distancia y un ángulo.

Esta forma de representar los números complejos es ampliamente utilizada en física y trigonometría, ya que es normalmente mucho más simple trabajar con números complejos expresados en forma polar que con su equivalente en forma rectangular(forma que vimos anteriormente).

Formula de Euler: e^{i\theta} = \cos\theta + i\sin\theta con \theta\in \mathbb{R} denominada fase.

Nótese que en esta fórmula, al igual que en todas aquellas en las que intervienen exponenciales de ángulos, se asume que el ángulo θ está expresado en radianes.

Veamos algunas operaciones con forma polar:

Sean a,b \in \mathbb{C}, a=|a|e^{i\theta}, b=|b|e^{i\varphi}, con |a|, |b|, \theta, \varphi \in \mathbb{R}

Ilustración de un número complejo en el plano complejo usando la fórmula de Euler

Producto

a b = |a||b|e^{i(\theta+\varphi)} = |ab| (\cos(\theta+\varphi)+i\sin(\theta+\varphi))

Conjugado

a^* = |a|e^{-i\theta} = |a| (\cos\theta - i\sin\theta)

División

\frac{a}{b} = \frac{|a|}{|b|}e^{i(\theta-\varphi)} = \frac{|a|}{|b|}(\cos(\theta-\varphi)+i\sin(\theta-\varphi))

Potencia

a^n = |a|^ne^{in\theta} = |a|^n (\cos(n\theta) - i\sin(n\theta))

Exponenciación

e^{(x+yi)} = e^xe^{iy} = e^x(\cos(y)+i\sin(y))

Raíces

\sqrt[n]{a} = a^\frac{1}{n} = |a|^\frac{1}{n}e^{i\frac{\theta+2k\pi}{n}}

Hagamos unas operaciones para sacar la norma y la fase con la forma polar.

Espacio de Hilbert

Es una generalización del concepto de espacio euclídeo. Esta generalización extiende los métodos del álgebra lineal y el cálculo aplicados en el espacio euclídeo de dos dimensiones y tres dimensiones a los espacios de dimensión arbitraria, incluyendo los espacios de dimensión infinita.

El estado de un sistema cuántico viene descrito por un vector (vector de estado) en un espacio de Hilbert de componentes complejas.
Espacio vectorial complejo: conjunto no vacío de elementos, denominados vectores, que incluye las operaciones de suma, negación y multiplicación por un escalar
Los vectores se representan como arrays de 𝑛 filas y 1 columna.

\vec{v}=\begin{bmatrix} v_0\\ v_1\\ \vdots \\ v_{n-1} \end{bmatrix}

v_i\in \mathbb{C} y n es la dimensión del espacio.

El espacio \mathbb{V} = \mathbb{C}^2 formado por los vectores de 2 elementos complejos con producto escalar es un espacio de Hilbert.

Notación de Dirac(bra-ket)

Es la notación estándar para describir los estados cuánticos, también se utiliza para denotar vectores abstractos y funcionales lineales en matemática.

El estado de un sistema físico se identifica con un vector en el espacio de Hilbert complejo, . Cada vector se llama un ket, y se denota como . Cada ket tiene un bra dual, escrito como , esto es una funcional lineal continua de a los números complejos C.

Ket: |\,\rangle

Bra: \langle\,|

|v\rangle = \begin{bmatrix} v_0 \\ v_1\\ \vdots \\v_{n-1} \end{bmatrix}

\langle v| = (|v\rangle)^\dagger = \begin{bmatrix} v_0^* & v_1^* & \cdots & v_{n-1}^* \end{bmatrix}

donde el símbolo \dagger representa la matriz traspuesta conjugada

Producto escalar o interno

Se utiliza para determinar si dos vectores son ortogonales.

Sean |u\rangle y |v\rangle vectores de dimensión n.

\langle v|u\rangle = \begin{bmatrix} v_0^* & v_1^* & \cdots & v_{n-1}^* \end{bmatrix}\cdot \begin{bmatrix} u_0 \\ u_1\\ \vdots \\u_{n-1} \end{bmatrix} = v_0^*u_0 + v_1^*u_1 + \cdots + v_{n-1}^*u_{n-1} \in \mathbb{C}

Módulo(Norma)

\lVert|v\rangle\|^2 = \langle v|v\rangle = v_0^*v_0 + v_1^*v_1 + \cdots + v_{n-1}^*v_{n-1}

 =|v_0|^2 + |v_1|^2 + \cdots + |v_{n-1}|^2 \in \mathbb{R}

 

Esta norma es siempre positiva

\||v\rangle\|\ge 0$, y $\||v\rangle\|= 0\Leftrightarrow |v\rangle = 0

Propiedades del producto interno

  • Linealidad por la izquierda:- \langle (\alpha v+\beta w)|u\rangle = \alpha\langle v|u\rangle+\beta\langle w|u\rangle con \alpha,\beta \in \mathbb{C}
  • Linealidad conjugada por la derecha: \langle v|(\alpha u+\beta w)\rangle = \alpha^*\langle v|u\rangle+\beta^*\langle v|w\rangle con \alpha,\beta \in \mathbb{C}
  • Hermiticidad: \langle v|u\rangle = (\langle u|v\rangle)^*

Producto externo (outer product)

Se usa para probar si dos vectores son paralelos.

El producto externo de dos vectores de dimensión n es una matriz de dimensión n\times n

|u\rangle\langle v| = \begin{bmatrix} u_0 \\ u_1\\ \vdots \\u_{n-1} \end{bmatrix}\cdot \begin{bmatrix} v_0^* & v_1^* & \cdots & v_{n-1}^* \end{bmatrix}= \begin{bmatrix} u_0v_0^* & u_0v_1^* & \cdots & u_0v_{n-1}^*\\ u_1v_0^* & u_1v_1^* & \cdots & u_1v_{n-1}^*\\ \vdots & \vdots & \ddots & \vdots\\ u_{n-1}v_0^* & u_{n-1}v_1^* & \cdots & u_{n-1}v_{n-1}^*\\ \end{bmatrix}

Propiedades del producto externo

  • |u\rangle\langle v| = (|v\rangle\langle u|)^\dagger
  • (|u\rangle + |v\rangle)(\langle w|+\langle x|)
    = |u\rangle(\langle w|+\langle x|)+|v\rangle(\langle w|+\langle x|)
    = |u\rangle\langle w|+|u\rangle\langle x|+|v\rangle\langle w|+|v\rangle\langle x|
  • \alpha(|u\rangle\langle v|) = (\alpha|u\rangle)\langle v|
    = |u\rangle(\alpha\langle v|) con \alpha\in \mathbb{C}
  • (|u\rangle\langle v|)|w\rangle
    = |u\rangle(\langle v|w\rangle)
    = (\langle v|w\rangle)|u\rangle ya que \langle v|w\rangle es un escalar

Producto tensor (Kronecker)

 

Denotado con \otimes, a una operación sobre dos matrices de tamaño arbitrario que da como resultado una matriz bloque. Es un caso especial del producto tensorial. El producto de Kronecker no debería confundirse con el producto de matrices habitual, que es una operación totalmente diferente.

El producto tensor de un vector |u\rangle de m elementos y un vector |v\rangle de n elementos es un vector de m\cdot n elementos dado por:

|u\rangle\otimes|v\rangle \equiv |u\rangle|v\rangle \equiv |uv\rangle = \begin{bmatrix} u_0 \begin{bmatrix} v_0 \\ v_1\\ \vdots \\v_{n-1} \end{bmatrix}\\ u_1 \begin{bmatrix} v_0 \\ v_1\\ \vdots \\v_{n-1} \end{bmatrix}\\ \vdots\\ u_{m-1} \begin{bmatrix} v_0 \\ v_1\\ \vdots \\v_{n-1} \end{bmatrix} \end{bmatrix} = \begin{bmatrix} u_0v_0\\ u_0v_1\\ \vdots\\ u_0v_{n-1}\\ u_1v_0\\ u_1v_1\\ \vdots\\ u_1v_{n-1}\\ \vdots\\ u_{m-1}v_0\\ u_{m-1}v_1\\ \vdots\\ u_{m-1}v_{n-1}\\ \end{bmatrix}

 

Ejemplo:

Sean, en un espacio de dimensión 2, los siguientes vectores:

|0\rangle = \begin{bmatrix}1 \\ 0\end{bmatrix}, \quad |1\rangle =\begin{bmatrix}0 \\ 1\end{bmatrix} \\ |0\rangle\otimes |0\rangle \equiv |00\rangle = \begin{bmatrix}1 \\ 0\end{bmatrix}\otimes \begin{bmatrix}1 \\ 0\end{bmatrix} = \begin{bmatrix}1 \\ 0 \\ 0 \\ 0\end{bmatrix}\\ |0\rangle\otimes |1\rangle \equiv |01\rangle = \begin{bmatrix}1 \\ 0\end{bmatrix}\otimes \begin{bmatrix}0 \\ 1\end{bmatrix} = \begin{bmatrix}0 \\ 1 \\ 0 \\ 0\end{bmatrix}\\ |1\rangle\otimes |0\rangle \equiv |10\rangle = \begin{bmatrix}0 \\ 1\end{bmatrix}\otimes \begin{bmatrix}1 \\ 0\end{bmatrix} = \begin{bmatrix}0 \\ 0 \\ 1 \\ 0\end{bmatrix}\\ |1\rangle\otimes |1\rangle \equiv |11\rangle = \begin{bmatrix}0 \\ 1\end{bmatrix}\otimes \begin{bmatrix}0 \\ 1\end{bmatrix} = \begin{bmatrix}0 \\ 0 \\ 0 \\ 1\end{bmatrix}\\

Propiedades del producto tensor

  • Asociatividad y traspuesta:
    • |u\rangle\otimes (|v\rangle+|w\rangle) = |u\rangle\otimes |v\rangle+|u\rangle\otimes |w\rangle
    • (|v\rangle+|w\rangle)\otimes |u\rangle = |v\rangle\otimes |u\rangle+|w\rangle\otimes |u\rangle
    • (|u\rangle\otimes |v\rangle)\otimes |w\rangle = |u\rangle\otimes (|v\rangle \otimes |w\rangle)
    • (|u\rangle\otimes |v\rangle)^\dagger = |u\rangle^\dagger \otimes |v\rangle^\dagger
    • (\alpha|u\rangle)\otimes |v\rangle = |u\rangle\otimes (\alpha|v\rangle) = \alpha(|u\rangle\otimes |v\rangle), con \alpha\in \mathbb{C}
  • No-conmutatividad (en general):
    |u\rangle \otimes |v\rangle \neq |v\rangle\otimes |u\rangle
  • Propiedad del producto mixto:
    (|u\rangle\otimes |v\rangle)(\langle w|\otimes \langle x|) = |u\rangle \langle w|\otimes |v\rangle\langle x|

Producto tensor de espacios vectoriales

Dado un espacio vectorial \mathbb{V} de dimensión n y otro \mathbb{V}^\prime de dimensión n^\prime, el espacio vectorial \mathbb{V}\otimes \mathbb{V}^\prime tiene dimensión n\cdot n^\prime y se define como:

\mathbb{V}\otimes \mathbb{V}^\prime = \{v\otimes v^\prime | v\in \mathbb{V}, v^\prime\in \mathbb{V}^\prime\}

Base del espacio

Un conjunto de n vectores es una base del espacio de dimensión n si se verifica:

  • Cualquier vector |v\rangle se puede escribir como una combinación lineal de los elementos de la base.
  • Los vectores de la base son linealmente independientes

Si, además, los vectores de la base son ortogonales (ortonormales), se dice que la base es ortogonal (ortonormal).

Ejemplo

Sean los siguientes vectores de n elementos:

|0_n\rangle = \begin{bmatrix} 1 \\ 0 \\ 0 \\ \vdots \\0 \end{bmatrix},\quad |1_n\rangle = \begin{bmatrix} 0 \\ 1 \\ 0 \\ \vdots \\0 \end{bmatrix},\quad |2_n\rangle = \begin{bmatrix} 0 \\ 0 \\ 1 \\ \vdots \\0 \end{bmatrix},\ldots, |(n-1)_n\rangle = \begin{bmatrix} 0 \\ 0 \\ 0 \\ \vdots \\1 \end{bmatrix}

es decir, el vector |i_n\rangle tiene sus n coeficientes a 0 excepto el i-ésimo que vale 1.

El conjunto \{|0_n\rangle,|1_n\rangle,|2_n\rangle,\ldots,|(n-1)_n\rangle\} es una base ortonormal (llamada base canónica).

|v\rangle = \begin{bmatrix} v_0 \\ v_1\\ \vdots \\v_{n-1} \end{bmatrix} = v_0|0_n\rangle+v_1|1_n\rangle+v_2|2_n\rangle+\cdots+v_{n-1}|(n-1)_n\rangle

Se verifica que los vectores de la base son ortonormales, ya que:

\langle i|j\rangle = \delta_{ij} = \begin{cases} 1 & \text{si } i = j\\ 0 & \text{si } i \neq j \end{cases}

 

Ejemplo: cambio de base

Sea un espacio de dimensión 2. Un vector |v\rangle escrito en la base canónica \{|0\rangle,|1\rangle\} queda:

|v\rangle = \begin{bmatrix} v_0 \\ v_1 \end{bmatrix} = v_0 \begin{bmatrix} 1 \\ 0 \end{bmatrix} + v_1 \begin{bmatrix} 0 \\ 1 \end{bmatrix} = v_0|0\rangle + v_1|1\rangle

Otra base es la formada por los siguientes vectores:

|+\rangle = \begin{bmatrix} 1 \\ 1 \end{bmatrix},\quad |-\rangle = \begin{bmatrix} 1 \\ -1 \end{bmatrix}

En esta otra base, el vector tendrá otros componentes:

|v\rangle = v_0^\prime|+\rangle + v_1^\prime|-\rangle

Tenemos, entonces:

|v\rangle = v_0^\prime|+\rangle + v_1^\prime|-\rangle = v_0^\prime \begin{bmatrix} 1 \\ 1 \end{bmatrix} + v_1^\prime \begin{bmatrix} 1 \\ -1 \end{bmatrix} = \begin{bmatrix} v_0^\prime + v_1^\prime \\ v_0^\prime - v_1^\prime \end{bmatrix} = (v_0^\prime + v_1^\prime)|0\rangle + (v_0^\prime - v_1^\prime)|1\rangle

Es decir:

\begin{aligned} v_0 = v_0^\prime + v_1^\prime\\ v_1 = v_0^\prime - v_1^\prime \end{aligned}

Si definimos la matriz H como:

H = \begin{bmatrix} 1 & 1 \\ 1 & -1 \end{bmatrix}

es fácil comprobar que:

\begin{bmatrix} v_0 \\v_1 \end{bmatrix} = H \begin{bmatrix} v_0^\prime \\v_1^\prime \end{bmatrix} = \begin{bmatrix} 1 & 1 \\ 1 & -1 \end{bmatrix} \begin{bmatrix} v_0^\prime \\v_1^\prime \end{bmatrix} = \begin{bmatrix} v_0^\prime + v_1^\prime \\v_0^\prime - v_1^\prime \end{bmatrix}

H es una matriz de cambio de base: permite obtener los coeficientes en una base a partir de los coeficientes en la otra.

Los vectores \{|+\rangle,|-\rangle\} son ortogonales, pero no son ortonormales:

\begin{aligned} \langle +|-\rangle = \langle -|+\rangle = 0\\ \langle +|+\rangle = \langle -|-\rangle = 2 \end{aligned}

Para que sean ortonormales, debemos definirlos como:

|+\rangle = \tfrac{1}{\sqrt{2}} \begin{bmatrix} 1 \\ 1 \end{bmatrix},\quad |-\rangle = \tfrac{1}{\sqrt{2}} \begin{bmatrix} 1 \\ -1 \end{bmatrix}

y escribir la matriz H como:

H = \tfrac{1}{\sqrt{2}} \begin{bmatrix} 1 & 1 \\ 1 & -1 \end{bmatrix} = \begin{bmatrix} \tfrac{1}{\sqrt{2}} & \tfrac{1}{\sqrt{2}} \\ \tfrac{1}{\sqrt{2}} & -\tfrac{1}{\sqrt{2}} \end{bmatrix}

Esta matriz se denomina matriz de Hadamard, sus entradas son +1 o -1 y cuyas filas son mutuamente ortogonales.

Operadores lineales y matrices

Sea \mathbb{V} y \mathbb{U} espacios de dimensiones n y m, respectivamente.

Un operador lineal O: \mathbb{V}\longrightarrow\mathbb{U} es una función que verifica:

O(\alpha|v\rangle + \beta|v^\prime\rangle) = \alpha O(|v\rangle) + \beta O(|v^\prime\rangle)

para todo |v\rangle,|v^\prime\rangle\in \mathbb{V} y \alpha, \beta \in \mathbb{C}

El operador O se representa mediante una matriz de dimensión m\times n y la operación O(|v\rangle) es un producto matriz-vector.

Por ejemplo, la matriz de Hadamard es un operador H: \mathbb{V}\longrightarrow\mathbb{V} con \mathbb{V} de dimensión 2.