Aproximação de posto baixo

Em matemática, a aproximação de posto baixo é um problema de minimização, no qual a função de custo mede o ajuste entre uma dada matriz (os dados) e uma matriz de aproximação (a variável de otimização), sujeita a uma restrição de que a matriz de aproximação tenha posto reduzido. O problema é usado para modelagem matemática e compressão de dados. A restrição de classificação está relacionada a uma restrição na complexidade de um modelo que se ajusta aos dados. Em aplicações, muitas vezes há outras restrições na matriz de aproximação além da restrição de posto, por exemplo, não negatividade e estrutura de Hankel.

A aproximação de posto baixo está intimamente relacionada com:

Definição

Dados

  • uma especificação de estrutura S : R n p R m × n {\displaystyle {\mathcal {S}}:\mathbb {R} ^{n_{p}}\to \mathbb {R} ^{m\times n}} ,
  • um vetor de parâmetros de estrutura p R n p {\displaystyle p\in \mathbb {R} ^{n_{p}}} ,
  • uma norma {\displaystyle \|\cdot \|} , e
  • o posto desejado r {\displaystyle r} ,
minimizar sobre  p ^ p p ^ sujeito a rank ( S ( p ^ ) ) r . {\displaystyle {\text{minimizar}}\quad {\text{sobre }}{\widehat {p}}\quad \|p-{\widehat {p}}\|\quad {\text{sujeito a}}\quad \operatorname {rank} {\big (}{\mathcal {S}}({\widehat {p}}){\big )}\leq r.}

Aplicações

Problema básico de aproximação de posto baixo

O problema não estruturado com ajuste medido pela norma de Frobenius, ou seja,

minimizar sobre  D ^ D D ^ F sujeito a  rank ( D ^ ) r , {\displaystyle {\text{minimizar}}\quad {\text{sobre }}{\widehat {D}}\quad \|D-{\widehat {D}}\|_{\text{F}}\quad {\text{sujeito a }}\quad \operatorname {rank} {\big (}{\widehat {D}}{\big )}\leq r,}

tem solução analítica em termos da decomposição em valores singulares da matriz de dados. O resultado é referido como o lema de aproximação de matrizes ou teorema de Eckart–Young–Mirsky. Este problema foi originalmente resolvido por Erhard Schmidt[4] no contexto de dimensão infinita de operadores integrais (embora seus métodos facilmente se generalizem para operadores compactos arbitrários em espaços de Hilbert) e posteriormente redescoberto por C. Eckart e G. Young.[5] L. Mirsky generalizou o resultado para normas arbitrárias unitariamente invariantes.[6] Sejam

D = U Σ V R m × n , m n {\displaystyle D=U\Sigma V^{\top }\in \mathbb {R} ^{m\times n},\quad m\geq n}

a decomposição em valores singulares de D {\displaystyle D} e partição U {\displaystyle U} , Σ =: diag ( σ 1 , , σ m ) {\displaystyle \Sigma =:\operatorname {diag} (\sigma _{1},\ldots ,\sigma _{m})} , e V {\displaystyle V} como segue:

U =: [ U 1 U 2 ] , Σ =: [ Σ 1 0 0 Σ 2 ] , e V =: [ V 1 V 2 ] , {\displaystyle U=:{\begin{bmatrix}U_{1}&U_{2}\end{bmatrix}},\quad \Sigma =:{\begin{bmatrix}\Sigma _{1}&0\\0&\Sigma _{2}\end{bmatrix}},\quad {\text{e}}\quad V=:{\begin{bmatrix}V_{1}&V_{2}\end{bmatrix}},}

em que U 1 {\displaystyle U_{1}} é m × r {\displaystyle m\times r} , Σ 1 {\displaystyle \Sigma _{1}} é r × r {\displaystyle r\times r} , e V 1 {\displaystyle V_{1}} é n × r {\displaystyle n\times r} . Então a matriz de posto- r {\displaystyle r} , obtida a partir da decomposição em valores singulares truncada

D ^ = U 1 Σ 1 V 1 , {\displaystyle {\widehat {D}}^{*}=U_{1}\Sigma _{1}V_{1}^{\top },}

é tal que

D D ^ F = min rank ( D ^ ) r D D ^ F = σ r + 1 2 + + σ m 2 . {\displaystyle \|D-{\widehat {D}}^{*}\|_{\text{F}}=\min _{\operatorname {rank} ({\widehat {D}})\leq r}\|D-{\widehat {D}}\|_{\text{F}}={\sqrt {\sigma _{r+1}^{2}+\cdots +\sigma _{m}^{2}}}.}

O minimizador D ^ {\displaystyle {\widehat {D}}^{*}} é único se, e somente se, σ r + 1 σ r {\displaystyle \sigma _{r+1}\neq \sigma _{r}} .

Prova do teorema de Eckart–Young–Mirsky (para a norma espectral)

Seja A R m × n {\displaystyle A\in \mathbb {R} ^{m\times n}} uma matriz real (possivelmente retangular) com m n {\displaystyle m\geq n} . Suponha que

A = U Σ V {\displaystyle A=U\Sigma V^{\top }}

é a decomposição em valores singulares de A {\displaystyle A} . Lembre-se que U {\displaystyle U} e V {\displaystyle V} são matrizes ortogonais, e Σ {\displaystyle \Sigma } é uma matriz diagonal m × n {\displaystyle m\times n} com entradas ( σ 1 , σ 2 , , σ n ) {\displaystyle (\sigma _{1},\sigma _{2},\cdots ,\sigma _{n})} tais que σ 1 σ 2 σ n 0 {\displaystyle \sigma _{1}\geq \sigma _{2}\geq \cdots \geq \sigma _{n}\geq 0} .

Afirmamos que a melhor aproximação de posto k {\displaystyle k} de A {\displaystyle A} na norma espectral, denotada por 2 {\displaystyle \|\cdot \|_{2}} , é dada por

A k = i = 1 k σ i u i v i {\displaystyle A_{k}=\sum _{i=1}^{k}\sigma _{i}u_{i}v_{i}^{\top }}

em que u i {\displaystyle u_{i}} e v i {\displaystyle v_{i}} denotam as i {\displaystyle i} -ésimas colunas de U {\displaystyle U} e V {\displaystyle V} , respectivamente.

Primeiro, note que temos

A A k 2 = i = 1 n σ i u i v i i = 1 k σ i u i v i 2 = i = k + 1 n σ i u i v i 2 = σ k + 1 {\displaystyle \|A-A_{k}\|_{2}=\left\|\sum _{i=1}^{\color {red}{n}}\sigma _{i}u_{i}v_{i}^{\top }-\sum _{i=1}^{\color {red}{k}}\sigma _{i}u_{i}v_{i}^{\top }\right\|_{2}=\left\|\sum _{i=\color {red}{k+1}}^{n}\sigma _{i}u_{i}v_{i}^{\top }\right\|_{2}=\sigma _{k+1}}

Portanto, precisamos mostrar que se B k = X Y {\displaystyle B_{k}=XY^{\top }} , em que X {\displaystyle X} e Y {\displaystyle Y} têm k {\displaystyle k} colunas, então A A k 2 = σ k + 1 A B k 2 {\displaystyle \|A-A_{k}\|_{2}=\sigma _{k+1}\leq \|A-B_{k}\|_{2}} .

Como Y {\displaystyle Y} tem k {\displaystyle k} colunas, então deve haver uma combinação linear não trivial das primeiras k + 1 {\displaystyle k+1} colunas de V {\displaystyle V} , ou seja,

w = γ 1 v 1 + + γ k + 1 v k + 1 , {\displaystyle w=\gamma _{1}v_{1}+\cdots +\gamma _{k+1}v_{k+1},}

tal que Y w = 0 {\displaystyle Y^{\top }w=0} . Sem perda de generalidade, podemos escalar w {\displaystyle w} de modo que w 2 = 1 {\displaystyle \|w\|_{2}=1} ou (equivalentemente) γ 1 2 + + γ k + 1 2 = 1 {\displaystyle \gamma _{1}^{2}+\cdots +\gamma _{k+1}^{2}=1} . Portanto,

A B k 2 2 ( A B k ) w 2 2 = A w 2 2 = γ 1 2 σ 1 2 + + γ k + 1 2 σ k + 1 2 σ k + 1 2 . {\displaystyle \|A-B_{k}\|_{2}^{2}\geq \|(A-B_{k})w\|_{2}^{2}=\|Aw\|_{2}^{2}=\gamma _{1}^{2}\sigma _{1}^{2}+\cdots +\gamma _{k+1}^{2}\sigma _{k+1}^{2}\geq \sigma _{k+1}^{2}.}

O resultado segue tomando a raiz quadrada de ambos os lados da desigualdade acima.

Prova do teorema de Eckart–Young–Mirsky (para a norma de Frobenius)

Seja A R m × n {\displaystyle A\in \mathbb {R} ^{m\times n}} uma matriz real (possivelmente retangular) com m n {\displaystyle m\geq n} . Suponha que

A = U Σ V {\displaystyle A=U\Sigma V^{\top }}

é a decomposição em valores singulares de A {\displaystyle A} .

Afirmamos que a melhor aproximação de posto k {\displaystyle k} de A {\displaystyle A} na norma de Frobenius, denotada por F {\displaystyle \|\cdot \|_{F}} , é dada por

A k = i = 1 k σ i u i v i {\displaystyle A_{k}=\sum _{i=1}^{k}\sigma _{i}u_{i}v_{i}^{\top }}

em que u i {\displaystyle u_{i}} e v i {\displaystyle v_{i}} denotam as i {\displaystyle i} -ésimas colunas de U {\displaystyle U} e V {\displaystyle V} , respectivamente.

Primeiro, note que temos

A A k F 2 = i = k + 1 n σ i u i v i F 2 = i = k + 1 n σ i 2 {\displaystyle \|A-A_{k}\|_{F}^{2}=\left\|\sum _{i=k+1}^{n}\sigma _{i}u_{i}v_{i}^{\top }\right\|_{F}^{2}=\sum _{i=k+1}^{n}\sigma _{i}^{2}}

Portanto, precisamos mostrar que se B k = X Y {\displaystyle B_{k}=XY^{\top }} , com X {\displaystyle X} e Y {\displaystyle Y} tendo k {\displaystyle k} colunas, então

A A k F 2 = i = k + 1 n σ i 2 A B k F 2 . {\displaystyle \|A-A_{k}\|_{F}^{2}=\sum _{i=k+1}^{n}\sigma _{i}^{2}\leq \|A-B_{k}\|_{F}^{2}.}

Pela desigualdade triangular com a norma espectral, se A = A + A {\displaystyle A=A'+A''} então σ 1 ( A ) σ 1 ( A ) + σ 1 ( A ) {\displaystyle \sigma _{1}(A)\leq \sigma _{1}(A')+\sigma _{1}(A'')} . Suponha que A k {\displaystyle A'_{k}} e A k {\displaystyle A''_{k}} denotam respectivamente as aproximações de posto k {\displaystyle k} de A {\displaystyle A'} e A {\displaystyle A''} pelo método SVD descrito acima. Então, para qualquer i , j 1 {\displaystyle i,j\geq 1}

σ i ( A ) + σ j ( A ) = σ 1 ( A A i 1 ) + σ 1 ( A A j 1 ) σ 1 ( A A i 1 A j 1 ) σ 1 ( A A i + j 2 ) ( como  r a n k ( A i 1 + A j 1 ) r a n k ( A i + j 2 ) ) = σ i + j 1 ( A ) . {\displaystyle {\begin{aligned}\sigma _{i}(A')+\sigma _{j}(A'')&=\sigma _{1}(A'-A'_{i-1})+\sigma _{1}(A''-A''_{j-1})\\&\geq \sigma _{1}(A-A'_{i-1}-A''_{j-1})\\&\geq \sigma _{1}(A-A_{i+j-2})\qquad ({\text{como }}{\rm {rank}}(A'_{i-1}+A''_{j-1})\leq {\rm {rank\,}}(A_{i+j-2}))\\&=\sigma _{i+j-1}(A).\end{aligned}}}

Como σ k + 1 ( B k ) = 0 {\displaystyle \sigma _{k+1}(B_{k})=0} , quando A = A B k {\displaystyle A'=A-B_{k}} e A = B k {\displaystyle A''=B_{k}} concluímos que para i 1 , j = k + 1 {\displaystyle i\geq 1,j=k+1}

σ i ( A B k ) σ k + i ( A ) . {\displaystyle \sigma _{i}(A-B_{k})\geq \sigma _{k+i}(A).}

Portanto,

A B k F 2 = i = 1 n σ i ( A B k ) 2 i = k + 1 n σ i ( A ) 2 = A A k F 2 , {\displaystyle \|A-B_{k}\|_{F}^{2}=\sum _{i=1}^{n}\sigma _{i}(A-B_{k})^{2}\geq \sum _{i=k+1}^{n}\sigma _{i}(A)^{2}=\|A-A_{k}\|_{F}^{2},}

como desejado.

Problemas de aproximação de posto baixo ponderada

A norma de Frobenius pondera uniformemente todos os elementos do erro de aproximação D D ^ {\displaystyle D-{\widehat {D}}} . O conhecimento prévio sobre a distribuição dos erros pode ser levado em consideração considerando o problema de aproximação de posto baixo ponderada

minimizar sobre  D ^ vec ( D D ^ ) W vec ( D D ^ ) sujeito a rank ( D ^ ) r , {\displaystyle {\text{minimizar}}\quad {\text{sobre }}{\widehat {D}}\quad \operatorname {vec} (D-{\widehat {D}})^{\top }W\operatorname {vec} (D-{\widehat {D}})\quad {\text{sujeito a}}\quad \operatorname {rank} ({\widehat {D}})\leq r,}

em que vec ( A ) {\displaystyle {\text{vec}}(A)} vetoriza a matriz A {\displaystyle A} por colunas e W {\displaystyle W} é uma matriz de peso positiva (semi-)definida dada.

O problema geral de aproximação de posto baixo ponderada não admite uma solução analítica em termos de decomposição de valores singulares e é resolvido por métodos de otimização local, que não garantem que uma solução global ótima seja encontrada.

No caso de pesos não correlacionados, o problema de aproximação de posto baixo ponderada também pode ser formulado desta forma:[7][8] para uma matriz não negativa W {\displaystyle W} e uma matriz A {\displaystyle A} queremos minimizar i , j ( W i , j ( A i , j B i , j ) ) 2 {\displaystyle \sum _{i,j}(W_{i,j}(A_{i,j}-B_{i,j}))^{2}} sobre matrizes B {\displaystyle B} , de posto no máximo r {\displaystyle r} .

Problemas de aproximação de posto baixo L p {\displaystyle L_{p}} por entradas

Seja A p = ( i , j | A i , j p | ) 1 / p {\displaystyle \|A\|_{p}=\left(\sum _{i,j}|A_{i,j}^{p}|\right)^{1/p}} . Para p = 2 {\displaystyle p=2} , o algoritmo mais rápido é executado em tempo n n z ( A ) + n p o l y ( k / ϵ ) {\displaystyle nnz(A)+n\cdot poly(k/\epsilon )} .[9][10] Uma das ideias importantes usadas é chamada de Oblivious Subspace Embedding (OSE), proposta pela primeira vez por Sarlos.[11]

Para p = 1 {\displaystyle p=1} , sabe-se que esta norma L1 por entradas é mais robusta do que a norma de Frobenius na presença de outliers e é indicada em modelos para os quais as suposições gaussianas sobre o ruído podem não se aplicar. É natural procurar minimizar B A 1 {\displaystyle \|B-A\|_{1}} .[12] Para p = 0 {\displaystyle p=0} e p 1 {\displaystyle p\geq 1} , existem alguns algoritmos com garantias prováveis.[13][14]

Problema de aproximação de posto baixo de distâncias

Sejam P = { p 1 , , p m } {\displaystyle P=\{p_{1},\ldots ,p_{m}\}} e Q = { q 1 , , q n } {\displaystyle Q=\{q_{1},\ldots ,q_{n}\}} dois conjuntos de pontos em um espaço métrico arbitrário. Seja A {\displaystyle A} uma matriz m × n {\displaystyle m\times n} em que A i , j = d i s t ( p i , q i ) {\displaystyle A_{i,j}=dist(p_{i},q_{i})} . Tais matrizes de distâncias são comumente calculadas em pacotes de software e têm aplicações para aprendizado de variedades de imagens, reconhecimento de escrita manual e desdobramento multidimensional. Na tentativa de reduzir seu tamanho de descrição,[15][16] pode-se estudar uma aproximação de posto baixo de tais matrizes.

Problema de aproximação de posto baixo distribuído/em streaming

Os problemas de aproximação de posto baixo nos modelos distribuídos e de streaming foram considerados por Boutsidis et al.[17]

Representações por imagem e núcleo das restrições de posto

Usando as equivalências

rank ( D ^ ) r existem  P R m × r  e  L R r × n  tais que  D ^ = P L {\displaystyle \operatorname {rank} ({\widehat {D}})\leq r\quad \iff \quad {\text{existem }}P\in \mathbb {R} ^{m\times r}{\text{ e }}L\in \mathbb {R} ^{r\times n}{\text{ tais que }}{\widehat {D}}=PL}

e

rank ( D ^ ) r existe  R R m r × m  de posto completo tal que  R D ^ = 0 {\displaystyle \operatorname {rank} ({\widehat {D}})\leq r\quad \iff \quad {\text{existe }}R\in \mathbb {R} ^{m-r\times m}{\text{ de posto completo tal que }}R{\widehat {D}}=0}

o problema de aproximação de posto baixo ponderada torna-se equivalente aos problemas de otimização de parâmetros

minimizar sobre  D ^ , P  e  L vec ( D D ^ ) W vec ( D D ^ ) sujeito a D ^ = P L {\displaystyle {\text{minimizar}}\quad {\text{sobre }}{\widehat {D}},P{\text{ e }}L\quad \operatorname {vec} ^{\top }(D-{\widehat {D}})W\operatorname {vec} (D-{\widehat {D}})\quad {\text{sujeito a}}\quad {\widehat {D}}=PL}

e

minimizar sobre  D ^  e  R vec ( D D ^ ) W vec ( D D ^ ) sujeito a  R D ^ = 0 e R R = I r , {\displaystyle {\text{minimizar}}\quad {\text{sobre }}{\widehat {D}}{\text{ e }}R\quad \operatorname {vec} ^{\top }(D-{\widehat {D}})W\operatorname {vec} (D-{\widehat {D}})\quad {\text{sujeito a }}\quad R{\widehat {D}}=0\quad {\text{e}}\quad RR^{\top }=I_{r},}

em que I r {\displaystyle I_{r}} é a matriz identidade de tamanho r {\displaystyle r} .

Algoritmo de projeções alternadas

A representação por imagem da restrição de posto sugere um método de otimização de parâmetros no qual a função de custo é minimizada alternativamente sobre uma das variáveis ( P {\displaystyle P} ou L {\displaystyle L} ) com a outra fixa. Embora a minimização simultânea de P {\displaystyle P} e L {\displaystyle L} seja um problema de otimização biconvexo difícil, a minimização sobre uma das variáveis sozinha é um problema linear de mínimos quadrados e pode ser resolvida globalmente e eficientemente.

O algoritmo de otimização resultante (chamado de projeções alternadas) é globalmente convergente com uma taxa de convergência linear para uma solução localmente ótima do problema de aproximação de posto baixo ponderada. O valor inicial para P {\displaystyle P} (ou L {\displaystyle L} ) deve ser fornecido. A iteração é interrompida quando uma condição de convergência definida pelo usuário é satisfeita.

O algoritmo de projeções alternadas para aproximação de posto baixo ponderada pode ser implementado em Matlab da seguinte forma:

function [dh, f] = wlra_ap(d, w, p, tol, maxiter)
[m, n] = size(d); r = size(p, 2); f = inf;
for i = 2:maxiter
    % minimização sobre L
    bp = kron(eye(n), p);
    vl = (bp' * w * bp) \ bp' * w * d(:);
    l  = reshape(vl, r, n);
    % minimização sobre P
    bl = kron(l', eye(m));
    vp = (bl' * w * bl) \ bl' * w * d(:);
    p  = reshape(vp, m, r);
    % verificação da condição de parada
    dh = p * l; dd = d - dh;
    f(i) = dd(:)' * w * dd(:);
    if abs(f(i - 1) - f(i)) < tol, break, end
endfor

Algoritmo de projeções variáveis

O algoritmo de projeções alternadas explora o fato de que o problema de aproximação de posto baixo, parametrizado na forma da imagem, é bilinear nas variáveis P {\displaystyle P} ou L {\displaystyle L} . A natureza bilinear do problema é efetivamente utilizada em uma abordagem alternativa, chamada de projeções variáveis.[18]

Considere novamente o problema de aproximação de posto baixo ponderada, parametrizado na forma da imagem. A minimização em relação à variável L {\displaystyle L} (um problema linear de mínimos quadrados) leva à expressão de forma fechada do erro de aproximação em função de P {\displaystyle P}

f ( P ) = vec ( D ) ( W W ( I n P ) ( ( I n P ) W ( I n P ) ) 1 ( I n P ) W ) vec ( D ) . {\displaystyle f(P)={\sqrt {\operatorname {vec} ^{\top }(D){\Big (}W-W(I_{n}\otimes P){\big (}(I_{n}\otimes P)^{\top }W(I_{n}\otimes P){\big )}^{-1}(I_{n}\otimes P)^{\top }W{\Big )}\operatorname {vec} (D)}}.}

O problema original é, portanto, equivalente ao problema não linear de mínimos quadrados de minimizar f ( P ) {\displaystyle f(P)} em relação a P {\displaystyle P} . Para este propósito, métodos de otimização padrão, por exemplo, o algoritmo de Levenberg-Marquardt podem ser usados.

Implementação Matlab do algoritmo de projeções variáveis para aproximação ponderada de baixa classificação:

function [dh, f] = wlra_varpro(d, w, p, tol, maxiter)
prob = optimset(); prob.solver = 'lsqnonlin';
prob.options = optimset('MaxIter', maxiter, 'TolFun', tol);
prob.x0 = p; prob.objective = @(p) cost_fun(p, d, w);
[p, f ] = lsqnonlin(prob);
[f, vl] = cost_fun(p, d, w);
dh = p * reshape(vl, size(p, 2), size(d, 2));

function [f, vl] = cost_fun(p, d, w)
bp = kron(eye(size(d, 2)), p);
vl = (bp' * w * bp) \ bp' * w * d(:);
f = d(:)' * w * (d(:) - bp * vl);

A abordagem de projeções variáveis também pode ser aplicada a problemas de aproximação de posto baixo parametrizados na forma de kernel. O método é eficaz quando o número de variáveis eliminadas é muito maior do que o número de variáveis de otimização deixadas no estágio de minimização não linear por mínimos quadrados. Tais problemas ocorrem na identificação do sistema, parametrizado na forma de kernel, onde as variáveis eliminadas são a trajetória de aproximação e as variáveis restantes são os parâmetros do modelo. No contexto de sistemas lineares invariantes no tempo, a etapa de eliminação é equivalente à suavização de Kalman.

Uma variante: aproximação de posto baixo restrita convexa

Normalmente, queremos que nossa nova solução não seja apenas de posto baixo, mas também satisfaça outras restrições convexas devido aos requisitos da aplicação. Nosso problema de interesse seria o seguinte,

minimizar sobre  p ^ p p ^ sujeito a rank ( S ( p ^ ) ) r  e  g ( p ^ ) 0 {\displaystyle {\text{minimizar}}\quad {\text{sobre }}{\widehat {p}}\quad \|p-{\widehat {p}}\|\quad {\text{sujeito a}}\quad \operatorname {rank} {\big (}{\mathcal {S}}({\widehat {p}}){\big )}\leq r{\text{ e }}g({\widehat {p}})\leq 0}

Este problema tem muitas aplicações no mundo real, inclusive para recuperar uma boa solução de um relaxamento inexato (programação semidefinida). Se restrição adicional g ( p ^ ) 0 {\displaystyle g({\widehat {p}})\leq 0} é linear, tal como quando se exige que todos os elementos sejam não-negativos, o problema é chamado de aproximação estruturada de posto baixo.[19] A forma mais geral é chamada de aproximação de posto baixo restrita convexa.

Este problema é útil para resolver muitos problemas. No entanto, é um desafio devido à combinação das restrições convexas e não convexas (posto baixo). Diferentes técnicas foram desenvolvidas com base em diferentes realizações de g ( p ^ ) 0 {\displaystyle g({\widehat {p}})\leq 0} . No entanto, o Método de Multiplicadores de Direção Alternada (ADMM) pode ser aplicado para resolver o problema não convexo com função objetivo convexa, restrições de posto e outras restrições convexas,[20] e, portanto, é adequado para resolver nosso problema acima. Além disso, diferentemente dos problemas gerais não convexos, o ADMM garantirá a convergência de uma solução viável desde que sua variável dual convirja nas iterações.

Ver também

  • A aproximação matricial CUR é feita a partir das linhas e colunas da matriz original

Referências

  1. I. Markovsky, Structured low-rank approximation and its applications, Automatica, Volume 44, Issue 4, April 2008, Pages 891–909. doi:10.1016/j.automatica.2007.09.011
  2. I. Markovsky, J. C. Willems, S. Van Huffel, B. De Moor, and R. Pintelon, Application of structured total least squares for system identification and model reduction. IEEE Transactions on Automatic Control, Volume 50, Number 10, 2005, pages 1490–1500.
  3. I. Markovsky, Low-Rank Approximation: Algorithms, Implementation, Applications, Springer, 2012, ISBN 978-1-4471-2226-5
  4. E. Schmidt, Zur Theorie der linearen und nichtlinearen Integralgleichungen, Math. Annalen 63 (1907), 433-476. doi:10.1007/BF01449770
  5. C. Eckart, G. Young, The approximation of one matrix by another of lower rank. Psychometrika, Volume 1, 1936, Pages 211–8. doi:10.1007/BF02288367
  6. L. Mirsky, Symmetric gauge functions and unitarily invariant norms, Q.J. Math. 11 (1960), 50-59. doi:10.1093/qmath/11.1.50
  7. Srebro, Nathan; Jaakkola, Tommi (2003). Weighted Low-Rank Approximations (PDF). ICML'03 
  8. Razenshteyn, Ilya; Song, Zhao; Woodruff, David P. (2016). Weighted Low Rank Approximations with Provable Guarantees. STOC '16 Proceedings of the forty-eighth annual ACM symposium on Theory of Computing 
  9. Clarkson, Kenneth L.; Woodruff, David P. (2013). Low Rank Approximation and Regression in Input Sparsity Time. STOC '13 Proceedings of the forty-fifth annual ACM symposium on Theory of Computing. arXiv:1207.6365Acessível livremente 
  10. Nelson, Jelani; Nguyen, Huy L. (2013). OSNAP: Faster numerical linear algebra algorithms via sparser subspace embeddings. FOCS '13. arXiv:1211.1002Acessível livremente 
  11. Sarlos, Tamas (2006). Improved approximation algorithms for large matrices via random projections. FOCS'06 
  12. Song, Zhao; Woodruff, David P.; Zhong, Peilin (2017). Low Rank Approximation with Entrywise L1-Norm Error. STOC '17 Proceedings of the forty-ninth annual ACM symposium on Theory of Computing. arXiv:1611.00898Acessível livremente 
  13. Bringmann, Karl; Kolev, Pavel; Woodruff, David P. (2017). Approximation Algorithms for L0-Low Rank Approximation. NIPS'17. arXiv:1710.11253Acessível livremente 
  14. Chierichetti, Flavio; Gollapudi, Sreenivas; Kumar, Ravi; Lattanzi, Silvio; Panigrahy, Rina; Woodruff, David P. (2017). Algorithms for Lp Low-Rank Approximation. ICML'17. arXiv:1705.06730Acessível livremente 
  15. Bakshi, Ainesh L.; Woodruff, David P. (2018). Sublinear Time Low-Rank Approximation of Distance Matrices. NeurIPS. arXiv:1809.06986Acessível livremente 
  16. Indyk, Piotr; Vakilian, Ali; Wagner, Tal; Woodruff, David P. (2019). Sample-Optimal Low-Rank Approximation of Distance Matrices. COLT 
  17. Boutsidis, Christos; Woodruff, David P.; Zhong, Peilin (2016). Optimal Principal Component Analysis in Distributed and Streaming Models. STOC. arXiv:1504.06729Acessível livremente 
  18. G. Golub and V. Pereyra, Separable nonlinear least squares: the variable projection method and its applications, Institute of Physics, Inverse Problems, Volume 19, 2003, Pages 1-26.
  19. Chu, Moody T.; Funderlic, Robert E.; Plemmons, Robert J. (2003). «structured low-rank approximation». Linear Algebra and Its Applications. 366: 157–172. doi:10.1016/S0024-3795(02)00505-0Acessível livremente 
  20. «A General System for Heuristic Solution of Convex Problems over Nonconvex Sets» (PDF) 
  • MT Chu, RE Funderlic, RJ Plemmons, Aproximação estruturada de baixo escalão, Álgebra Linear e suas Aplicações, Volume 366, 1º de junho de 2003, Páginas 157–172doi:10.1016/S0024-3795(02)00505-0

Ligações externas

  • Pacote C++ para aproximação de posto baixo estruturada