機(jī)器學(xué)習(xí)-第十一章 特征選擇與稀疏學(xué)習(xí)

11.1 子集搜索與評(píng)價(jià)

我們將屬性稱為特征
相關(guān)特征:對(duì)當(dāng)前學(xué)習(xí)任務(wù)有用的屬性骆捧。
無(wú)關(guān)特征:對(duì)當(dāng)前學(xué)習(xí)任務(wù)無(wú)用的屬性。
特征選擇:從給遠(yuǎn)的特征集合中選擇出相關(guān)特征子集的過(guò)程顿膨。

特征選擇是顯示機(jī)器學(xué)習(xí)任務(wù)中重要的"數(shù)據(jù)預(yù)處理"過(guò)程锅锨。
有兩個(gè)意義:
減少無(wú)關(guān)屬性,減輕維數(shù)災(zāi)難恋沃。
留下關(guān)鍵屬性必搞,降低學(xué)習(xí)任務(wù)的難度。

特征選擇的過(guò)程中要保證不丟失重要特征芽唇,否則將降低學(xué)習(xí)器性能。假設(shè)初始的特征集包含了所有重要特征。

欲從初始的特征集合中選取一個(gè)包含了所有重要信息的特征子集匆笤,可行的做法是產(chǎn)生一個(gè)"候選子集"研侣,評(píng)價(jià)出它的好壞,基于評(píng)價(jià)結(jié)果產(chǎn)生下一個(gè)候選子集炮捧,再對(duì)其進(jìn)行評(píng)價(jià)……這個(gè)過(guò)程持續(xù)進(jìn)行下去庶诡,直至無(wú)法找到更好的候選子集為止。

上述過(guò)程涉及兩個(gè)關(guān)鍵環(huán)節(jié):
如何根據(jù)評(píng)價(jià)結(jié)果獲取下一個(gè)候選特征子集?
如何評(píng)價(jià)候選特征子集的好壞?

給定特征集合{a1,a2,……,ad}咆课,可以將每個(gè)特征看作一個(gè)候選子集末誓。

  • 環(huán)節(jié)1:子集搜索問(wèn)題(如何根據(jù)評(píng)價(jià)結(jié)果獲取下一個(gè)候選特征子集?)
    1)前向搜索
    對(duì)d個(gè)候選子集進(jìn)行評(píng)價(jià),假設(shè){a2}最優(yōu)书蚪,于是將{a2}作為第一輪的選定集喇澡;
    然后,在選定集中加上一個(gè)特征殊校,構(gòu)成兩個(gè)特征的候選子集晴玖,即{a2,ai}(i≠2),假定在這d-1個(gè)候選子集中为流,{a2,a4}最優(yōu)呕屎,且優(yōu)于{a2},則作為選定集敬察,
    重復(fù)這樣的過(guò)程秀睛,直到第k+1輪,最優(yōu)的候選子集{a2,a4,……,ai}不如第k輪的選定集時(shí)莲祸,則停止生成候選子集蹂安,并將第k輪的選定集作為特征選擇結(jié)果。

    2)后向搜索
    從完整的特征集開(kāi)始虫给,每次嘗試去掉一個(gè)無(wú)關(guān)特征藤抡,逐漸減少特征。

    3)雙向搜索
    前向與后向搜索結(jié)合起來(lái)抹估,每一輪逐漸增加選定相關(guān)特征(這些特征在后續(xù)輪中將確定不會(huì)被去除)缠黍,同時(shí)減少無(wú)關(guān)特征。

  • 環(huán)節(jié)2:子集評(píng)價(jià)問(wèn)題(如何評(píng)價(jià)候選特征子集的好壞?)
    假定樣本屬性均為離散型的药蜻。給定數(shù)據(jù)集D瓷式,D中第i類(lèi)樣本所占的比例為pi(i=1,2,3,……,|Y|)。對(duì)屬性子集A语泽,假定根據(jù)其取值將 分成了V個(gè)子集{D1, D2 ,...,DV}贸典,每個(gè)子集中的樣本在A上取值相同(4.2有相應(yīng)詳細(xì)解釋),可得屬性子集A的信息增益

    信息增益Gain(A)越大踱卵,意味著特征子集A包含的重要信息越多廊驼。于是据过,將信息增益作為評(píng)價(jià)準(zhǔn)則。

將上述的子集搜索機(jī)制和子集評(píng)價(jià)機(jī)制結(jié)合妒挎,就是特征選擇方法绳锅。
常見(jiàn)的特征選擇方法大致可分為三類(lèi):
過(guò)濾式、包裹式和嵌入式

11.2 過(guò)濾式選擇

過(guò)濾式方法先對(duì)數(shù)據(jù)集進(jìn)行特征選擇酝掩,然后再訓(xùn)練學(xué)習(xí)器鳞芙,即先用特征選擇過(guò)程對(duì)初始特征進(jìn)行"過(guò)濾",再用過(guò)濾后的特征來(lái)訓(xùn)練模型期虾。其中常用的過(guò)濾式特征選擇方法是Relief原朝。

  • Relief過(guò)濾式特征選擇方法
    Relief是為二分類(lèi)問(wèn)題設(shè)計(jì)的。該方法利用"相關(guān)統(tǒng)計(jì)量"來(lái)度量特征的重要性镶苞。該統(tǒng)計(jì)量是一個(gè)向量喳坠,每個(gè)分量分別對(duì)應(yīng)于一個(gè)初始特征。
    特征子集的重要性則是由子集中每個(gè)特征所對(duì)應(yīng)的相關(guān)統(tǒng)計(jì)量分量之和來(lái)決定宾尚。
    最終只需指定一個(gè)閾值丙笋,然后選擇比閾值大的相關(guān)統(tǒng)計(jì)量的分量所對(duì)應(yīng)的特征即可』吞或者指定選取k特征個(gè)數(shù)御板,然后選擇前k大相關(guān)統(tǒng)計(jì)量即可。

    由上面可以知道牛郑,Relief關(guān)鍵在于如何確定統(tǒng)計(jì)量怠肋。

    給定數(shù)據(jù)集{(x1,y1),(x1,y1),……,(xm,ym)},在Relief中淹朋,對(duì)每個(gè)樣本xi有:
    "猜中近鄰"(near-hit):同類(lèi)樣本中笙各,與xi最近鄰的樣本xi,nh
    "猜錯(cuò)近鄰"(near-miss):異類(lèi)樣本中础芍,與xi最近鄰的樣本xi,nm杈抢。

    對(duì)于每個(gè)屬性j的相關(guān)統(tǒng)計(jì)量的分量為

    其中,xaj表示樣本xa在屬性j上的取值仑性;
    對(duì)diff(xaj,xbj)有:
    若屬性j為離散型惶楼,則xaj=xbj時(shí),diff(xaj,xbj)=0诊杆,否則為1歼捐;
    若屬性j為連續(xù)型,則diff(xaj,xbj)=|xaj-xbj|晨汹。(xaj,xbj∈[0,1])
    從上式中可以看出:
    1)若xi與其猜中近鄰樣本xj,nh在屬性j上的距離小于xi與其猜錯(cuò)近鄰樣本xj,nj在屬性j上的距離豹储,則說(shuō)明屬性j對(duì)區(qū)分同類(lèi)與異類(lèi)樣本是有益的,故增大屬性j所對(duì)應(yīng)的統(tǒng)計(jì)量分量淘这。
    2)反之剥扣,若大于的話巩剖,則說(shuō)明屬性j對(duì)于分類(lèi)起負(fù)作用,故減小屬性j所對(duì)應(yīng)的統(tǒng)計(jì)量分量钠怯。
    3)最后球及,基于每個(gè)樣本xi在屬性j上的估計(jì)結(jié)果進(jìn)行平均,就得到屬性j的統(tǒng)計(jì)量分量呻疹,分量值越大,則對(duì)應(yīng)屬性的分類(lèi)能力就越強(qiáng)筹陵。

  • Relief-F是用于多分類(lèi)的刽锤。
    假定數(shù)據(jù)集D中的樣本來(lái)自Y個(gè)類(lèi)別。對(duì)樣本xi朦佩,若它屬第k類(lèi)(k∈{1,2,,…,Y})并思,
    則Relief-F先在第k類(lèi)的樣本中尋找xi最近鄰樣本xi,nh并將其作為猜中近鄰
    然后在第k類(lèi)之外的每個(gè)類(lèi)中找到一個(gè)xi的最近鄰樣本作為猜錯(cuò)近鄰语稠,記為xi,l,nm (l=1,2,…,Y;且l≠k)宋彼。
    且記pl記為第l類(lèi)樣本在數(shù)據(jù)集D中的占比。

    于是仙畦,相關(guān)統(tǒng)計(jì)量對(duì)應(yīng)于屬性j的分量為

11.3 包裹式選擇

包裹式特征選擇直接把最終將要使用的學(xué)習(xí)器性能作為特征子集的評(píng)價(jià)準(zhǔn)則输涕。包裹式特征選擇的目的就是為給定學(xué)習(xí)器選擇最有利于其性能、 "量身定做"的特征子集慨畸。

LVW是常用的包裹時(shí)特征選擇方法莱坎。
LVW基于拉斯維加斯框架下使用隨機(jī)策略來(lái)進(jìn)行子集搜索,并以最終分類(lèi)器的誤差作為特征子集評(píng)價(jià)標(biāo)準(zhǔn)寸士。

拉斯維加斯方法
LVW的算法流程如下
1)在循環(huán)的每一輪隨機(jī)產(chǎn)生一個(gè)特征子集
2)在隨機(jī)產(chǎn)生的特征子集上通過(guò)交叉驗(yàn)證推斷當(dāng)前特征子集的誤差
3)進(jìn)行多次循環(huán)檐什,在多個(gè)隨機(jī)產(chǎn)生的特征子集中選擇誤差最小的特征子集作為最終解
4)若有運(yùn)行時(shí)間限制,則該算法有可能給不出解

11.4 嵌入式選擇與L1正則化

嵌入式特征選擇是將特征選擇過(guò)程與學(xué)習(xí)器訓(xùn)練過(guò)程融為一體弱卡,兩者在同一個(gè)優(yōu)化過(guò)程中完成乃正,即在學(xué)習(xí)器訓(xùn)練過(guò)程中自動(dòng)地進(jìn)行了特征選擇。

給定數(shù)據(jù)集D={(x1,y1),(x2,y2),……,(xm,ym)}婶博,以線性回歸模型為學(xué)習(xí)模型瓮具,以平方誤差為損失函數(shù),則優(yōu)化目標(biāo)為

當(dāng)樣本特征很多凡蜻,而樣本數(shù)相對(duì)較少時(shí)搭综,很容易陷入過(guò)擬合。因此為了緩解過(guò)擬合划栓,可以對(duì)上式引入正則化項(xiàng)兑巾。

  • 若引入L2范數(shù)正則化,則優(yōu)化目標(biāo)稱為"嶺回歸"忠荞,很夠顯著降低過(guò)擬合風(fēng)險(xiǎn)蒋歌。

  • 但我們可以引入更好的L1范數(shù)正則化帅掘,則有

    其中,λ>0堂油,稱為LASSO(最小絕對(duì)收縮選擇算子)修档。L1不僅可以降低過(guò)擬合風(fēng)險(xiǎn),還可以更容易求得"稀疏解"府框,即LASSO求得的w會(huì)有更少的非零分量吱窝。
    通過(guò)一個(gè)直觀的例子來(lái)理解:假設(shè)x僅有兩個(gè)屬性,于是有w1,w2迫靖,將他們作為坐標(biāo)軸院峡;
    然后畫(huà)出,上式中 第一項(xiàng)的"等值線"系宜,即Σi=1m(yi-wTxi)2的等值線照激,即在(w1,w2)空間中平方誤差項(xiàng)取值相同的點(diǎn)的連線;
    接著分別畫(huà)出盹牧,L1范數(shù)L2范數(shù)的等值線俩垃。在(w1,w2)空間中L1范數(shù)取值相同的點(diǎn)的連線,以及L2范數(shù)取值相同的點(diǎn)的連線汰寓。
    可以看出口柳,采用L1范數(shù)時(shí),平方誤差項(xiàng)等值線與L1范數(shù)等值線的交點(diǎn)常出現(xiàn)在坐標(biāo)軸上有滑,即w1或w2取值為0啄清;
    而采用L2范數(shù)時(shí),兩者的交點(diǎn)常出現(xiàn)在某個(gè)象限中俺孙,即w1或w2均不為0辣卒;也就是說(shuō),采用L1范數(shù)比L2范數(shù)更易于得到稀疏解睛榄。

基于L1正則化的學(xué)習(xí)方法就是一種嵌入式特征選擇方法荣茫,其特征選擇過(guò)程與學(xué)習(xí)器訓(xùn)練過(guò)程融為一體, 同時(shí)完成场靴。

  • PGD求解L1正則化問(wèn)題
    可以使用近端梯度下降去求解L1正則化問(wèn)題啡莉。
    1)優(yōu)化目標(biāo)
    令▽表示微分算子,對(duì)優(yōu)化目標(biāo):
    若f(x)可導(dǎo)旨剥,且▽f 滿足L-Lipschitz(利普希茨連續(xù)條件)咧欣,即存在常數(shù)L>0使得:
    2)泰勒展開(kāi)
    則在xk處我們可以泰勒展開(kāi):
    上式是嚴(yán)格相等,由L-Lipschitz條件我們可以看到:
    這里給出了一個(gè)L的下界轨帜,且下界的形式與二階導(dǎo)函數(shù)形式類(lèi)似魄咕,從而泰勒展開(kāi)式的二階導(dǎo)便通過(guò)L替代,從而嚴(yán)格不等也變成了近似:
    3)簡(jiǎn)化泰勒展開(kāi)式
    化簡(jiǎn)上式:
    其中φ(xk)是與x無(wú)關(guān)的const常數(shù).
    4)簡(jiǎn)化優(yōu)化問(wèn)題
    這里若通過(guò)梯度下降法對(duì)f(x)進(jìn)行最小化蚌父,則每一步下降迭代實(shí)際上等價(jià)于最小化二次函數(shù)f(x)哮兰,從而推廣到我們最上面的優(yōu)化目標(biāo)毛萌,類(lèi)似的可以得到每一步的迭代公式:
    則我們可以先計(jì)算z,再求解優(yōu)化問(wèn)題:
    5)求解上式

參考鏈接:
https://blog.csdn.net/kabuto_hui/article/details/88534460

11.5 稀疏表示與字典學(xué)習(xí)

  • 稀疏表示
    數(shù)據(jù)集D以矩陣表示喝滞,每一行為一個(gè)樣本阁将,每一列為一個(gè)屬性。特征選擇所考慮的問(wèn)題是特征具有“稀疏性”右遭,即矩陣中的許多列與當(dāng)前學(xué)習(xí)任務(wù)無(wú)關(guān)做盅,我們需要通過(guò)特征選擇去除這些列。

    考慮另一種稀疏性:在數(shù)據(jù)集 D 所對(duì)應(yīng)的矩陣中存在很多零元素窘哈,但這些零元素并不是以整列言蛇、整行形式存在的。當(dāng)樣本具有這樣的稀疏表示時(shí)宵距,對(duì)學(xué)習(xí)任務(wù)有不少好處,比如稀疏表示的數(shù)據(jù)更容易線性可分吨拗。同時(shí)满哪,稀疏表示的數(shù)據(jù)在存儲(chǔ)上的負(fù)擔(dān)不大。

    我們可以通過(guò)將數(shù)據(jù)轉(zhuǎn)換為“恰當(dāng)稀疏”的形式劝篷,獲得稀疏表示的好處哨鸭,簡(jiǎn)化學(xué)習(xí)任務(wù)。這種為普通稠密表達(dá)的樣本找到合適的字典娇妓,將樣本轉(zhuǎn)化為稀疏表示形式像鸡,從而使學(xué)習(xí)任務(wù)得以簡(jiǎn)化,模型復(fù)雜度得以降低哈恰,通常稱為“字典學(xué)習(xí)”只估,亦稱“稀疏編碼”。

  • 字典學(xué)習(xí)
    給定數(shù)據(jù)集{x1,x2,…,xm}着绷,字典學(xué)習(xí)最簡(jiǎn)單的形式為

    其中B∈Rdxk字典矩陣蛔钙;k稱為字典的詞匯量,通常由用戶指定荠医;
    αi∈Rk則是樣本xi∈Rd的稀疏表示吁脱。上式中,第一項(xiàng)希望由α重構(gòu)xi彬向,第二項(xiàng)則是希望α盡量稀疏兼贡。

    我們采用變量交替優(yōu)化的策略來(lái)求解上式。
    第一步固定字典矩陣B娃胆,更新上式中的分量遍希,我們可以用LASSO的解法(上一節(jié)中有講過(guò))來(lái)求解,從而為每個(gè)樣本xi找到相應(yīng)的αi里烦。

    分量
    第二步固定αi孵班,更新字典B涉兽,原式寫(xiě)為
    求解該式的策略有基于逐列更新的K-SVD。令bi表示字典矩陣B的第i列篙程,αi表示稀疏矩陣A的第i行枷畏,上式可以寫(xiě)為
    在更新字典的第i列時(shí),其他列是固定的虱饿,因此Ei是固定的拥诡,只需要對(duì)上式進(jìn)行奇異值分解得到最大奇異值所對(duì)應(yīng)的正交向量即可。
    但是氮发,這樣做會(huì)破壞第一步得到的稀疏性渴肉,因此K-SVD在奇異值分解之前,對(duì)Ei和αi做專(zhuān)門(mén)處理:αi只保留非零元素爽冕,Ei只保留biαi的非零元素的乘積項(xiàng)仇祭;然后再進(jìn)行奇異值分解

    反復(fù)迭代上述兩步颈畸,最終即可求得字典B和樣本xi的稀疏表示 αi乌奇。

稀疏表示的具體的過(guò)程簡(jiǎn)單描述如下:
1)確定映射字典的詞匯量k,并初始化字典B眯娱,d*k礁苗,其中d為樣本屬性數(shù)
2)固定住字典B,用LASSO求得樣本集 X 通過(guò)字典映射后的稀疏表示ai
3)固定住αi來(lái)更新字典B徙缴,K-SVD進(jìn)行求解试伙。
4)反復(fù)第2、3步于样,最終可得合適的字典B和樣本X的稀疏表示ai疏叨。

  • 代碼實(shí)現(xiàn)

    1)載入數(shù)據(jù),可以隨便找一個(gè)張圖片

import numpy as np
import pandas as pd
from scipy.io import loadmat
 
train_data_mat = loadmat("../data/train_data2.mat")
 
train_data = train_data_mat["Data"]
train_label = train_data_mat["Label"]
 
print(train_data.shape, train_label.shape)

2)初始化字典

u, s, v = np.linalg.svd(train_data)
n_comp = 50
dict_data = u[:, :n_comp]

3)字典更新

def dict_update(y, d, x, n_components):
    """
    使用KSVD更新字典的過(guò)程
    """
    for i in range(n_components):
        index = np.nonzero(x[i, :])[0]
        if len(index) == 0:
            continue
        # 更新第i列
        d[:, i] = 0
        # 計(jì)算誤差矩陣
        r = (y - np.dot(d, x))[:, index]
        # 利用svd的方法穿剖,來(lái)求解更新字典和稀疏系數(shù)矩陣
        u, s, v = np.linalg.svd(r, full_matrices=False)
        # 使用左奇異矩陣的第0列更新字典
        d[:, i] = u[:, 0]
        # 使用第0個(gè)奇異值和右奇異矩陣的第0行的乘積更新稀疏系數(shù)矩陣
        for j,k in enumerate(index):
            x[i, k] = s[0] * v[0, j]
    return d, x

4)迭代更新求解
可以指定迭代更新的次數(shù)考廉,或者指定收斂的誤差。

from sklearn import linear_model
 
max_iter = 10
dictionary = dict_data
 
y = train_data
tolerance = 1e-6
 
for i in range(max_iter):
    # 稀疏編碼
    x = linear_model.orthogonal_mp(dictionary, y)
    e = np.linalg.norm(y - np.dot(dictionary, x))
    if e < tolerance:
        break
    dict_update(y, dictionary, x, n_comp)
 
sparsecode = linear_model.orthogonal_mp(dictionary, y)
 
train_restruct = dictionary.dot(sparsecode)

字典學(xué)習(xí)以及稀疏特征詳細(xì)理解:
https://www.cnblogs.com/hdu-zsk/p/5954658.html

字典學(xué)習(xí)過(guò)程詳解:
https://www.cnblogs.com/endlesscoding/p/10090866.html#_label0

奇異值分解:
https://www.cnblogs.com/endlesscoding/p/10033527.html
https://blog.csdn.net/weixin_42462804/article/details/83905320

11.6 壓縮感知

在現(xiàn)實(shí)任務(wù)中携御,我們希望可以通過(guò)部分信息來(lái)恢復(fù)全部信息昌粤。因?yàn)樵趯?shí)際中為了便于數(shù)據(jù)的傳輸存儲(chǔ),人們通常會(huì)將數(shù)據(jù)進(jìn)行壓縮啄刹,這有可能會(huì)損失一部分信息涮坐,而傳輸?shù)倪^(guò)程中又可能會(huì)丟失一部分信息。這時(shí)候擁有根據(jù)接收到的受損的數(shù)據(jù)來(lái)恢復(fù)全部數(shù)據(jù)的能力就很重要了誓军。壓縮感知為解決此類(lèi)問(wèn)題提供了靈感袱讹。

  • 假設(shè)有長(zhǎng)度為m的離散信號(hào)x,以一個(gè)采樣率進(jìn)行采樣,得到長(zhǎng)度為n的采樣后信號(hào)y(y也稱"測(cè)量值")捷雕,其中n遠(yuǎn)小于m椒丧,有

    其中,Φ∈Rnxm是對(duì)信號(hào)x的測(cè)量矩陣救巷,它確定了以某個(gè)頻率進(jìn)行采樣以及如何將采樣樣本組成采樣后的信號(hào)壶熏。
    若已知Φ和x,很容易求出y浦译;但由于上式是一個(gè)欠定方程(方程的個(gè)數(shù)少于未知函數(shù)的個(gè)數(shù))棒假,即使將y和Φ傳輸給對(duì)方,也難以還原原來(lái)的x精盅。(假定x本身不是稀疏的)

    若有個(gè)線性變化Ψ∈Rmxm帽哑,使得x=Ψs,且s具有稀疏性叹俏,y可以表示為

    s具有稀疏性妻枕,就可以很好解決欠定方程的問(wèn)題,因?yàn)橄∈栊允沟梦粗蛩卮蟠鬁p少粘驰。Ψ稱為稀疏基屡谐,而A=ΦΨ的作用類(lèi)似于字典,能將信號(hào)轉(zhuǎn)化為稀疏表示晴氨。于是,若能根據(jù)y恢復(fù)s碉输,就可以通過(guò)x=Ψs求出原來(lái)信號(hào)x籽前。
    s可以通過(guò)處理后會(huì)轉(zhuǎn)化稀疏信號(hào)。如敷钾,傅里葉轉(zhuǎn)換等枝哄。

  • 壓縮感知關(guān)注的是如何利用信號(hào)本身所具有的稀疏性,從部分觀測(cè)樣本中恢復(fù)原信號(hào)阻荒。
    它可以分為兩個(gè)階段:
    1)感知測(cè)量
    對(duì)原始信號(hào)進(jìn)行處理以獲得稀疏樣本表示挠锥,涉及傅里葉變換、小波變換侨赡、字典學(xué)習(xí)蓖租、稀疏編碼等、
    2)重構(gòu)恢復(fù)
    基于稀疏性從少量觀測(cè)中復(fù)原信號(hào)羊壹,是壓縮感知的精髓蓖宦。

  • 壓縮感知的重要理論:"限定等距性"(RIP)
    對(duì)一個(gè)nxm(n遠(yuǎn)小于m)矩陣A,若有常數(shù)ε∈(0,1)使得任意向量s和任意A的子矩陣Ak∈Rnxk遵循下式油猫,則稱A滿足k限定等距性

    A滿足k限定等距性
    這時(shí)稠茂,可以通過(guò)下面的優(yōu)化問(wèn)題從y中恢復(fù)稀疏信號(hào)s,再恢復(fù)得到x情妖。
    壓縮感知問(wèn)題就可通過(guò)L1范數(shù)最小化問(wèn)題求解睬关,例如上式可轉(zhuǎn)為LASSO的等價(jià)形式通過(guò)PGD求解诱担。

  • 壓縮感知有很多應(yīng)用。
    矩陣補(bǔ)全技術(shù)电爹。該問(wèn)題的形式為:

    其中X為需要恢復(fù)的稀疏信號(hào)蔫仙,rank(X)表示矩陣的秩。 A是已觀測(cè)信號(hào)藐不,Ω是已知元素的下標(biāo)(i,j)的集合匀哄。
    注意到,rank(X)在集合X∈Rm×n:||X||2F≤1}上的凸包是X的核范數(shù):
    核范數(shù)
    其中σj(X)表示X的奇異值雏蛮,即矩陣的核范數(shù)為矩陣的奇異值之和涎嚼。
    我們可以將優(yōu)化目標(biāo)轉(zhuǎn)化為,通過(guò)最小化矩陣核范數(shù)來(lái)求解挑秉,有
    上式是一個(gè)凸優(yōu)化問(wèn)題法梯,可以通過(guò)半正定規(guī)劃SDP求解。
    理論上犀概,當(dāng)滿足一定條件立哑,A的秩為r, n?m,則只需要觀察到O(mrlog2m)個(gè)元素就可以完美恢復(fù)出A。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末唱遭,一起剝皮案震驚了整個(gè)濱河市绰上,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌捂掰,老刑警劉巖,帶你破解...
    沈念sama閱讀 216,402評(píng)論 6 499
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件曾沈,死亡現(xiàn)場(chǎng)離奇詭異这嚣,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī)塞俱,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,377評(píng)論 3 392
  • 文/潘曉璐 我一進(jìn)店門(mén)姐帚,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人障涯,你說(shuō)我怎么就攤上這事罐旗。” “怎么了唯蝶?”我有些...
    開(kāi)封第一講書(shū)人閱讀 162,483評(píng)論 0 353
  • 文/不壞的土叔 我叫張陵尤莺,是天一觀的道長(zhǎng)。 經(jīng)常有香客問(wèn)我生棍,道長(zhǎng)颤霎,這世上最難降的妖魔是什么? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 58,165評(píng)論 1 292
  • 正文 為了忘掉前任,我火速辦了婚禮友酱,結(jié)果婚禮上晴音,老公的妹妹穿的比我還像新娘。我一直安慰自己缔杉,他們只是感情好锤躁,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,176評(píng)論 6 388
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著或详,像睡著了一般系羞。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上霸琴,一...
    開(kāi)封第一講書(shū)人閱讀 51,146評(píng)論 1 297
  • 那天椒振,我揣著相機(jī)與錄音,去河邊找鬼梧乘。 笑死澎迎,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的选调。 我是一名探鬼主播夹供,決...
    沈念sama閱讀 40,032評(píng)論 3 417
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼仁堪!你這毒婦竟也來(lái)了哮洽?” 一聲冷哼從身側(cè)響起,我...
    開(kāi)封第一講書(shū)人閱讀 38,896評(píng)論 0 274
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤弦聂,失蹤者是張志新(化名)和其女友劉穎鸟辅,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體横浑,經(jīng)...
    沈念sama閱讀 45,311評(píng)論 1 310
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡剔桨,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,536評(píng)論 2 332
  • 正文 我和宋清朗相戀三年屉更,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了徙融。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 39,696評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡瑰谜,死狀恐怖欺冀,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情萨脑,我是刑警寧澤隐轩,帶...
    沈念sama閱讀 35,413評(píng)論 5 343
  • 正文 年R本政府宣布,位于F島的核電站渤早,受9級(jí)特大地震影響职车,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,008評(píng)論 3 325
  • 文/蒙蒙 一悴灵、第九天 我趴在偏房一處隱蔽的房頂上張望扛芽。 院中可真熱鬧,春花似錦积瞒、人聲如沸川尖。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 31,659評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)叮喳。三九已至,卻和暖如春缰贝,著一層夾襖步出監(jiān)牢的瞬間馍悟,已是汗流浹背。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 32,815評(píng)論 1 269
  • 我被黑心中介騙來(lái)泰國(guó)打工揩瞪, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留赋朦,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 47,698評(píng)論 2 368
  • 正文 我出身青樓李破,卻偏偏與公主長(zhǎng)得像宠哄,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子嗤攻,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,592評(píng)論 2 353