다운로드
작성자: admin 작성일시: 2016-05-17 12:19:08 조회수: 10062 다운로드: 407
카테고리: 기초 수학 태그목록:

행렬의 미분

지금까지는 스칼라값을 입력으로 받아 스칼라값을 출력하는 함수를 생각했다. 이제부터는 벡터나 행렬을 입력으로 받아서 벡터나 행렬을 출력하는 함수를 살펴본다.

여러개의 입력을 가지는 다변수 함수는 함수의 독립변수가 벡터인 경우로 볼 수 있다.

$$ f\left( \begin{bmatrix} x_1 \\ x_2 \end{bmatrix} \right) = f(x) = f(x_1, x_2) $$$$ \text{벡터 } x \;\; \rightarrow \;\; \text{스칼라 } f $$

이를 확장하면 행렬을 입력으로 가지는 함수도 생각할 수 있다.

$$ f\left( \begin{bmatrix} x_{11} & x_{12} \\ x_{21} & x_{22} \end{bmatrix} \right) = f(X) = f(x_{11}, \cdots, x_{22}) $$$$ \text{행렬 } x \;\; \rightarrow \;\; \text{스칼라 } f $$

반대로 벡터나 행렬을 출력하는 함수는 여러개의 함수를 합쳐놓은 것이다.

$$ f(x) = \begin{bmatrix} f_1(x) \\ f_2(x) \end{bmatrix} $$$$ \text{스칼라 } x \;\; \rightarrow \;\; \text{벡터 } f $$$$ f(x) = \begin{bmatrix} f_{11}(x) & f_{12}(x) \\ f_{21}(x) & f_{22}(x) \end{bmatrix} $$$$ \text{스칼라 } x \;\; \rightarrow \;\; \text{행렬 } f $$

벡터나 행렬을 입력받아 벡터나 행렬을 출력할 수도 있다.

$$ f(x) = \begin{bmatrix} f_1(x_1, x_2) \\ f_2(x_1, x_2) \end{bmatrix} $$$$ \text{벡터 } x \;\; \rightarrow \;\; \text{벡터 } f $$$$ f(x) = \begin{bmatrix} f_{11}(x_1, x_2) & f_{12}(x_1, x_2) \\ f_{21}(x_1, x_2) & f_{22}(x_1, x_2) \end{bmatrix} $$$$ \text{벡터 } x \;\; \rightarrow \;\; \text{행렬 } f $$

이러한 행렬을 입력이나 출력으로 가지는 함수를 미분하는 것을 행렬미분(matrix differentiation)이라고 한다. 사실 행렬미분은 정확하게는 미분이 아닌 편미분(partial derivative)이지만 여기에서는 편의상 미분이라고 쓰겠다. 또한 행렬미분에는 분자중심 표현법(Numerator-layout notation)과 분모중심 표현법(Denominator-layout notation) 두 가지가 있는데 여기에서는 분모중심 표현법으로 서술한다.

스칼라를 벡터로 미분하는 경우

데이터 분석에서는 함수의 출력변수가 스칼라이고 입력변수 $x$가 벡터인 다변수 함수를 사용하는 경우가 많다. 따라서 편미분도 $\frac{\partial f}{\partial x_1}, \frac{\partial f}{\partial x_2}, \cdots$ 등으로 여러 개가 존재한다.

이렇게 스칼라를 벡터로 미분하는 경우에는 결과를 열벡터로 표시한다. 이렇게 만들어진 벡터를 그레디언트 벡터(gradient vector)라고 하고 $\nabla f$로 표기한다.

$$ \nabla f = \frac{\partial f}{\partial {x}} = \begin{bmatrix} \dfrac{\partial f}{\partial x_1}\\ \dfrac{\partial f}{\partial x_2}\\ \vdots\\ \dfrac{\partial f}{\partial x_N}\\ \end{bmatrix} $$

예를 들어 다음과 같은 다변수 함수

$$ f(x, y) = 2x^2 + 6xy + 7y^2 - 26x - 54y + 107 $$

에 대한 그레디언트 벡터를 구하면

$$ \nabla f = \begin{bmatrix} \dfrac{\partial f}{\partial x}\\ \dfrac{\partial f}{\partial y}\\ \end{bmatrix} = \begin{bmatrix} 4x + 6y - 26\\ 6x + 14y - 54\\ \end{bmatrix} $$

가 된다.

연습 문제 6.3.16

다음 함수의 그레디언트 벡터를 구하라

1. $$ f(x, y, z) = x + y + z $$

2. $$ f(x, y, z) = xyz $$

2차원의 경우를 예로 들어 그레디언트 벡터를 표시하는 법을 알자보자. 2개의 입력변수를 가지는 2차원 함수 $f(x, y)$는 평면상에서 컨투어(contour)플롯으로 나타낼 수 있다. 그리고 입력 변수 $x, y$ 위치에서의 그레디언트 벡터 $\frac{\partial f}{\partial x}, \frac{\partial f}{\partial y}$는 그 위치를 원점으로 하는 화살표로 표현할 수 있다. 그리고 그레디언트 벡터의 방향은 편미분 성분 $\frac{\partial f}{\partial x}$와 $\frac{\partial f}{\partial y}$의 부호에 의해 결정된다.

만약 어떤 위치 $x, y$에서 $x$가 증가할수록 $f$가 커지면 도함수 $\frac{\partial f}{\partial x}$은 양수이다. 반대로 $y$가 증가할수록 $f$가 커지면 도함수 $\frac{\partial f}{\partial x}$은 음수이다. 벡터는 2차원 평면에서 화살표로 나타낼 수 있다. 가로 성분이 양수이고 세로 성분이 음수인 화살표는 우측 아래를 가리키는 화살이 될 것이다.

이렇게 컨투어 플롯 위에 그레디언트 벡터를 화살표로 나타낸 것을 플롯을 퀴버(quiver)플롯이라고 한다. 퀴버플롯에서 화살표는 화살표 시작 지점의 그레디언트 벡터를 나타낸다.

  • 그레디언트 벡터의 방향은 함수 곡면의 기울기가 가장 큰 방향, 즉 단위 길이당 함수값(높이)이 가장 크게 증가하는 방향을 가리킨다.
  • 그레디언트 벡터의 방향은 등고선(isoline)의 방향과 직교한다.
  • 그레디언트 벡터의 크기는 기울기를 의미한다. 즉 벡터의 크기가 클 수록 함수 곡면의 기울기가 커진다.

다음은 함수

$$ 2x^2 + 6xy + 7y^2 - 26x - 54y + 107 $$

의 그레디언트 벡터를 표시한 퀴버플롯이다.

In [1]:
def f(x, y):
    return 2 * x**2 + 6 * x * y + 7 * y**2 - 26 * x - 54 * y + 107

xx = np.linspace(1, 16, 100)
yy = np.linspace(-3, 6, 90)
X, Y = np.meshgrid(xx, yy)
Z = f(X, Y)


def gx(x, y):
    return 4 * x + 6 * y - 26

def gy(x, y):
    return 6 * x + 14 * y - 54

xx2 = np.linspace(1, 16, 15)
yy2 = np.linspace(-3, 6, 9)
X2, Y2 = np.meshgrid(xx2, yy2)
GX = gx(X2, Y2)
GY = gy(X2, Y2)
plt.figure(figsize=(10, 5))
plt.contour(X, Y, Z, levels=np.logspace(0, 3, 10))
plt.quiver(X2, Y2, GX, GY, color='blue', scale=400, minshaft=2)

plt.xlabel('x')
plt.ylabel('y')
plt.title("quiver plot")
plt.show()

연습 문제 6.3.17

함수

$$ 2x^2 + 6xy + 7y^2 - 26x - 54y + 107 $$

로 표현되는 지형을 상상하라. 이 지형의 (14, 4) 지점에 공을 두었다면 어떠한 경로로 공이 움직일지 경로를 그려라.

행렬미분법칙

다변수 함수를 미분하여 그레디언트 벡터를 구할 때는 다음 두가지 법칙이 유용하게 쓰인다.

행렬미분법칙 1: 선형 모형

선형 모형을 미분하면 그레디언트 벡터는 가중치 벡터이다.

$$ f(x) = w^T x $$$$\nabla f = \frac{\partial {w}^{T}{x}}{\partial {x}} = \frac{\partial {x}^{T}{w}}{\partial {x}} = {w}$$

(증명)

$$ \dfrac{\partial ({w}^T {x})}{\partial {x}}= \begin{bmatrix} \boxed{\dfrac{\partial ({w}^T {x})}{\partial x_1} \lower 0.7em \mathstrut} \\ \boxed{\dfrac{\partial ({w}^T {x})}{\partial x_2} \lower 0.7em \mathstrut} \\ \vdots \\ \boxed{\dfrac{\partial ({w}^T {x})}{\partial x_N} \lower 0.7em \mathstrut} \\ \end{bmatrix} = \begin{bmatrix} \boxed{\dfrac{\partial (w_1 x_1 + \cancel{w_2 x_2} + \cdots + \cancel{w_N x_N})}{\partial x_1} \lower 0.7em \mathstrut} \\ \boxed{\dfrac{\partial (\cancel{w_1 x_1} + w_2 x_2 + \cdots + \cancel{w_N x_N})}{\partial x_2} \lower 0.7em \mathstrut} \\ \vdots \\ \boxed{\dfrac{\partial (\cancel{w_1 x_1} + \cancel{w_2 x_2} + \cdots + w_N x_N)}{\partial x_N} \lower 0.7em \mathstrut} \\ \end{bmatrix} = \begin{bmatrix} w_1 \\ w_2 \\ \vdots \\ w_N \\ \end{bmatrix} = {w} $$

행렬미분법칙 2: 이차 형식

이차 형식을 미분하면 행렬과 벡터의 곱으로 나타난다.

$$ f(x) = x^T A x $$$$ \nabla f(x) = \frac{\partial {x}^{T}{A}{x}}{\partial {x}} = ({A} + {A}^{T}){x}$$

(증명)

$$ \begin{eqnarray} \dfrac{\partial ({x}^{T}{A}{x})}{\partial {x}} &=& \begin{bmatrix} \boxed{\dfrac{\partial ({x}^{T}{A}{x})}{\partial x_1}\lower 0.7em \mathstrut} \\ \boxed{\dfrac{\partial ({x}^{T}{A}{x})}{\partial x_2}\lower 0.7em \mathstrut} \\ \vdots \\ \boxed{\dfrac{\partial ({x}^{T}{A}{x})}{\partial x_N}\lower 0.7em \mathstrut} \\ \end{bmatrix} \\ &=& \begin{bmatrix} \boxed{\dfrac{\partial (\sum_{i=1}^{N} \sum_{j=1}^{N} a_{ij} x_i x_j)}{\partial x_1}\lower 0.7em \mathstrut} \\ \boxed{\dfrac{\partial (\sum_{i=1}^{N} \sum_{j=1}^{N} a_{ij} x_i x_j)}{\partial x_2}\lower 0.7em \mathstrut} \\ \vdots \\ \boxed{\dfrac{\partial (\sum_{i=1}^{N} \sum_{j=1}^{N} a_{ij} x_i x_j)}{\partial x_N}\lower 0.7em \mathstrut} \\ \end{bmatrix} \\ &=& \begin{bmatrix} \boxed{\dfrac{\partial \left( \begin{matrix} a_{11}x_1x_1 &+& a_{12}x_1x_2 &+& \cdots &+& a_{1N}x_1x_N &+ \\ a_{21}x_2x_1 &+& \cancel{a_{22}x_2x_2} &+& \cdots &+& \cancel{a_{2N}x_2x_N} &+ \\ & & \cdots \\ a_{N1}x_Nx_1 &+& \cancel{a_{N2}x_Nx_2} &+& \cdots &+& \cancel{a_{NN}x_Nx_N} & \end{matrix} \right)}{\partial x_1}\lower 0.7em \mathstrut} \\ \boxed{\dfrac{\partial \left( \begin{matrix} \cancel{a_{11}x_1x_1} &+& a_{12}x_1x_2 &+& \cdots &+& \cancel{a_{1N}x_1x_N} &+ \\ a_{21}x_2x_1 &+& a_{22}x_2x_2 &+& \cdots &+& a_{2N}x_2x_N &+ \\ & & \cdots \\ \cancel{a_{N1}x_Nx_1} &+& a_{N2}x_Nx_2 &+& \cdots &+& \cancel{a_{NN}x_Nx_N} & \end{matrix} \right)}{\partial x_2}\lower 0.7em \mathstrut} \\ \vdots \\ \end{bmatrix} \\ &=& \begin{bmatrix} \boxed{\begin{matrix} 2a_{11}x_1 &+& a_{12}x_2 &+& \cdots &+& a_{1N}x_N &+& \\ a_{21}x_2 &+& 0 &+& \cdots &+& 0 &+& \\ & & & \cdots & & & & \\ a_{N1}x_N &+& 0 &+& \cdots &+& 0 & & \end{matrix} \lower 2.2em \mathstrut} \\ \boxed{\begin{matrix} 0 &+& a_{12}x_2 &+& \cdots &+& 0 &+& \\ a_{21}x_1 &+& 2a_{22}x_2 &+& \cdots &+& a_{2N}x_N &+& \\ & & \cdots & & & & & & \\ 0 &+& a_{N2}x_N &+& \cdots &+& 0 & & \end{matrix} \lower 2.2em \mathstrut} \\ \vdots \\ \end{bmatrix} \\ &=& \begin{bmatrix} \boxed{\sum_{i=1}^{N} a_{1i} x_i + \sum_{i=1}^{N} a_{i1} x_i} \\ \boxed{\sum_{i=1}^{N} a_{2i} x_i + \sum_{i=1}^{N} a_{i2} x_i} \\ \vdots \\ \boxed{\sum_{i=1}^{N} a_{Ni} x_i + \sum_{i=1}^{N} a_{iN} x_i} \\ \end{bmatrix} \\ \\ &=& \begin{bmatrix} \boxed{\sum_{i=1}^{N} a_{1i} x_i} \\ \boxed{\sum_{i=1}^{N} a_{2i} x_i} \\ \vdots \\ \boxed{\sum_{i=1}^{N} a_{Ni} x_i} \\ \end{bmatrix} + \begin{bmatrix} \boxed{\sum_{i=1}^{N} a_{i1} x_i} \\ \boxed{\sum_{i=1}^{N} a_{i2} x_i} \\ \vdots \\ \boxed{\sum_{i=1}^{N} a_{iN} x_i} \\ \end{bmatrix} \\ \\ &=& {A} {x} + {A}^T {x} = ({A} + {A}^T){x} \end{eqnarray} $$

위의 두 가지 경우는 1차 다항식과 2차 다항식에 대한 스칼라 미분과 비슷하다. 두 경우를 비교해 보면 이 공식을 외우는데 도움이 된다.

스칼라 미분 벡터/행렬미분
$$ax \;\; \rightarrow \;\; a$$ $$w^Tx \;\; \rightarrow \;\; w$$
$$ax^2 \;\; \rightarrow \;\; 2ax$$ $$x^TAx \;\; \rightarrow \;\; (A+A^T)x$$
표 6.1.1 : 스칼라 와 벡터/행렬 미분의 공식 비교

벡터를 스칼라로 미분하는 경우

벡터

$$ {f}(x) = \begin{bmatrix} f_1 \\ f_2 \\ \vdots\\ f_M \\ \end{bmatrix} $$

를 스칼라 $x$로 미분하는 경우에는 결과를 행 벡터로 표시한다.

$$ \frac{\partial {f}}{\partial x} = \begin{bmatrix} \dfrac{\partial f_1}{\partial x} & \dfrac{\partial f_2}{\partial x} & \cdots & \dfrac{\partial f_M}{\partial x} \end{bmatrix} $$

벡터를 벡터로 미분하는 경우

벡터 ${x}$를 입력받아 벡터를 출력하는 함수 $f(x)$를 생각하자.

벡터를 벡터로 미분하면 미분을 당하는 벡터의 원소가 여러개($i=1, \dots, N$)이고 미분을 하는 벡터의 원소도 여러개($j=1, \dots, M$)이므로 미분의 결과로 나온 도함수는 2차원 배열 즉, 행렬이 된다.

$$ \dfrac{\partial {f}}{\partial {x}} = \begin{bmatrix} \dfrac{\partial f_1}{\partial {x}} & \dfrac{\partial f_2}{\partial {x}} & \cdots & \dfrac{\partial f_N}{\partial {x}} \end{bmatrix} = \begin{bmatrix} \dfrac{\partial {f}}{\partial x_1} \\ \dfrac{\partial {f}}{\partial x_2} \\ \vdots \\ \dfrac{\partial {f}}{\partial x_M} \end{bmatrix} = \begin{bmatrix} \dfrac{\partial f_1}{\partial x_1} & \dfrac{\partial f_2}{\partial x_1} & \cdots & \dfrac{\partial f_N}{\partial x_1} \\ \dfrac{\partial f_1}{\partial x_2} & \dfrac{\partial f_2}{\partial x_2} & \cdots & \dfrac{\partial f_N}{\partial x_2} \\ \vdots & \vdots & \ddots & \vdots \\ \dfrac{\partial f_1}{\partial x_M} & \dfrac{\partial f_2}{\partial x_M} & \cdots & \dfrac{\partial f_N}{\partial x_M} \\ \end{bmatrix} $$

행렬미분법칙 3: 행렬과 벡터의 곱의 미분

행렬 $A$와 벡터 $x$의 곱 $Ax$를 벡터 $x$로 미분하면 행렬 $A^T$가 된다.

$$ f(x) = Ax $$$$ \nabla f(x) = \dfrac{\partial ({Ax})}{\partial {x}} = A^T $$

(증명)

$$ {Ax} = {c_1}x_1 + {c_2}x_2 + \cdots + {c_M}x_M $$$$ \dfrac{\partial ({Ax})}{\partial {x}} = \begin{bmatrix} \dfrac{\partial ({Ax})}{\partial x_1} \\ \dfrac{\partial ({Ax})}{\partial x_2} \\ \cdots \\ \dfrac{\partial ({Ax})}{\partial x_M} \end{bmatrix} = \begin{bmatrix} \dfrac{\partial ({c_1}x_1 + {c_2}x_2 + \cdots + {c_M}x_M)^T}{\partial x_1} \\ \dfrac{\partial ({c_1}x_1 + {c_2}x_2 + \cdots + {c_M}x_M)^T}{\partial x_2} \\ \cdots \\ \dfrac{\partial ({c_1}x_1 + {c_2}x_2 + \cdots + {c_M}x_M)^T}{\partial x_M} \end{bmatrix} = \begin{bmatrix} {c_1}^T \\ {c_2}^T \\ \cdots \\ {c_M}^T \end{bmatrix} = A^T $$

함수의 출력변수와 입력변수가 모두 벡터(다차원) 데이터인 경우에는 입력변수 각각과 출력변수 각각의 조합에 대해 모두 미분이 존재한다. 따라서 도함수는 행렬 형태가 된다. 이렇게 만들어진 도함수의 행렬을 자코비안 행렬(Jacobian matrix) 이라고 한다. 자코비안 행렬은 벡터함수를 벡터변수로 미분해서 생기는 행렬의 전치행렬이다. 따라서 행/열의 방향이 다르다는 점에 유의한다.

$$ Jf(x) = J = \left(\frac{\partial f}{\partial x}\right)^T = \begin{bmatrix} \left(\dfrac{\partial f_1}{\partial x}\right)^T \\ \vdots \\ \left(\dfrac{\partial f_M}{\partial x}\right)^T \end{bmatrix} = \begin{bmatrix} \nabla f_1^T \\ \vdots \\ \nabla f_M^T \\ \end{bmatrix} = \begin{bmatrix} \dfrac{\partial f_1}{\partial x_1} & \cdots & \dfrac{\partial f_1}{\partial x_N}\\ \vdots & \ddots & \vdots\\ \dfrac{\partial f_M}{\partial x_1} & \cdots & \dfrac{\partial f_M}{\partial x_N} \end{bmatrix} $$

연습 문제 6.3.18

다음 함수의 자코비안 행렬을 구하라

$$ f(x) = \begin{bmatrix} \displaystyle\sum_{i=1}^3 x_i \\ \displaystyle\prod_{i=1}^3 x_i \end{bmatrix} $$

다변수 함수의 2차 도함수는 그레디언트 벡터를 입력변수 벡터로 미분한 것으로 헤시안 행렬(Hessian matrix)이라고 한다.

헤시안 행렬은 그레디언트 벡터의 자코비안 행렬의 전치 행렬로 정의한다.

$$ Hf(x) = H = J(\nabla f(x))^T $$

풀어쓰면 다음과 같다.

$$ H_{ij} = \dfrac{\partial^2 f}{\partial x_i\,\partial x_j} $$

즉,

$$ H = \begin{bmatrix} \dfrac{\partial^2 f}{\partial x_1^2} & \dfrac{\partial^2 f}{\partial x_1\,\partial x_2} & \cdots & \dfrac{\partial^2 f}{\partial x_1\,\partial x_N} \\ \dfrac{\partial^2 f}{\partial x_2\,\partial x_1} & \dfrac{\partial^2 f}{\partial x_2^2} & \cdots & \dfrac{\partial^2 f}{\partial x_2\,\partial x_N} \\ \vdots & \vdots & \ddots & \vdots \\ \dfrac{\partial^2 f}{\partial x_N\,\partial x_1} & \dfrac{\partial^2 f}{\partial x_N\,\partial x_2} & \cdots & \dfrac{\partial^2 f}{\partial x_N^2} \end{bmatrix} $$

함수가 연속이고 미분가능한 함수라면 헤시안 행렬은 대칭행렬이 된다.

연습 문제 6.3.19

다음 함수의 헤시안 행렬을 구하라

$$ f(x) = \sum_{i=1}^3 x_i^2 $$

스칼라를 행렬로 미분

출력변수 $f$가 스칼라값이고 입력변수 $X$가 행렬인 경우에는 도함수 행렬의 모양이 입력변수 행렬 $X$와 같다.

$$ \dfrac{\partial f}{\partial {X}} = \begin{bmatrix} \dfrac{\partial f}{\partial x_{1,1}} & \dfrac{\partial f}{\partial x_{1,2}} & \cdots & \dfrac{\partial f}{\partial x_{1,N}}\\ \dfrac{\partial f}{\partial x_{2,1}} & \dfrac{\partial f}{\partial x_{2,2}} & \cdots & \dfrac{\partial f}{\partial x_{2,N}}\\ \vdots & \vdots & \ddots & \vdots\\ \dfrac{\partial f}{\partial x_{M,1}} & \dfrac{\partial f}{\partial x_{M,2}} & \cdots & \dfrac{\partial f}{\partial x_{M,N}}\\ \end{bmatrix} $$

행렬미분법칙 4: 행렬 곱의 대각성분

두 정방행렬을 곱해서 만들어진 행렬의 대각성분(trace)는 스칼라이다. 이 스칼라를 뒤의 행렬로 미분하면 앞의 행렬의 전치행렬이 나온다.

$$ f(X) = \text{tr} ({W}{X}) $$$$ ({W} \in {R}^{N \times N}, {X} \in {R}^{N \times N}) $$$$ \dfrac{\partial f}{\partial X} = \dfrac{\partial \text{tr} ({W}{X})}{\partial {X}} = {W}^T $$

(증명)

$$ \text{tr}({W}{X}) = \sum_{i=1}^N \sum_{j=1}^N w_{ji} x_{ij} $$$$ \dfrac{\partial \text{tr} ({W}{X})}{\partial x_{ij}} = w_{ji} $$

행렬미분법칙 5: 행렬식의 로그

행렬식(determinant)은 스칼라값이고 이 값의 로그 값도 스칼라이다. 이 값을 원래의 행렬로 미분하면 원래 행렬의 역행렬의 전치 행렬이 된다.

$$ f(X) = \log | {X} | $$$$ \dfrac{\partial f}{\partial X} = \dfrac{\partial \log | {X} | }{\partial {X}} = ({X}^{-1})^T $$

(증명)

행렬식의 정의에서

$$ \dfrac{\partial}{\partial x_{i,j}} \vert X \vert = C_{i,j} $$

행렬식과 역행렬의 관계에서

$$ \dfrac{\partial}{\partial X} \vert X \vert = C = | X | (X^{-1})^T $$

로그 함수 공식에 대입하면

$$ \dfrac{d}{dx} \log f(x) = \dfrac{f'(x)}{f(x)} = \dfrac{\vert X \vert (X^{-1})^T}{\vert X \vert} = (X^{-1})^T $$

질문/덧글

행렬 미분 규칙 4 : 행렬 로그 에서 moon*** 2016년 9월 25일 9:55 오후

행렬 미분 규칙 4 : 행렬 로그 에서

증명 마지막 부분에는 A의 역행렬이 최종 해로 나왔는데

증명해야할 식의 답이 A 역행렬의 Transpose가 되는 이유가 무엇인가요?

답변: 행렬 미분 규칙 4 : 행렬 로그 에서 관리자 2016년 9월 26일 7:54 오전

두번째 등식에서 실수가 있었습니다. 수정하였습니다.
이 등식이 나오는 부분은 https://www.datascienceschool.net/view-notebook/d6205659aff0413797c22552947aec83/#행렬식 입니다.

사용자에 의해 삭제되었습니다. tyui*** 2016년 11월 28일 8:01 오후

사용자에 의해 삭제되었습니다.

벡터를 벡터로 미분하는 경우에서 isb6*** 2018년 9월 16일 12:08 오전

우변 행렬의 (1,2) 성분의 분자가 f1로 되어있는데 f2가 맞는 것인지 궁금합니다.

답변: 벡터를 벡터로 미분하는 경우에서 관리자 2018년 9월 16일 7:51 오후

수정하였습니다. 지적 감사드립니다.