久久影视这里只有精品国产,激情五月婷婷在线,久久免费视频二区,最新99国产小视频

        • 回答數(shù)

          4

        • 瀏覽數(shù)

          282

        嘟嘟200907
        首頁 > 職業(yè)資格證 > 經(jīng)濟師數(shù)據(jù)挖掘算法

        4個回答 默認排序
        • 默認排序
        • 按時間排序

        巧克力麥乳精

        已采納
        分類是在一群已經(jīng)知道類別標號的樣本中,訓練一種分類器,讓其能夠?qū)δ撤N未知的樣本進行分類。分類算法的分類過程就是建立一種分類模型來描述預定的數(shù)據(jù)集或概念集,通過分析由屬性描述的數(shù)據(jù)庫元組來構(gòu)造模型。

        經(jīng)濟師數(shù)據(jù)挖掘算法

        229 評論(12)

        勁草黑鍋

        可以參考

        349 評論(11)

        圓滿的滿

        本凝集層次聚類算法:計算鄰近度矩陣 repeat 合并最接近的兩個族更新鄰近性矩陣 until 僅剩下一個族,很像哈夫曼算法,計算族的鄰近性的時候可以有MIN、MAX、組平均、Distance Between Centroids等(意義顧名思義即可),不同的鄰近性度量可能會產(chǎn)生不同的結(jié)果。也有各自的優(yōu)缺點,比如MIN就會對噪聲或outlier很敏感。。。缺點:時間復雜度高啊,o(m^3),改進后的算法也有o(m^2lgm),m為點的個數(shù);貪心算法的缺點,一步錯步步錯;同K-means,difficulty handling different sized clusters and convex shapes優(yōu)點:可解釋性好(如當需要創(chuàng)建一種分類法時);還有些研究表明這些算法能產(chǎn)生高質(zhì)量的聚類,也會應(yīng)用在上面說的先取K比較大的K-means后的合并階段;還有對于K-means不能解決的非球形族就可以解決了。

        125 評論(12)

        八彩虹624

        有十大經(jīng)典算法: 我是看譚磊的那本書學的。。。下面是網(wǎng)站給出的答案:1. C4.5C4.5算法是機器學習算法中的一種分類決策樹算法,其核心算法是ID3算法. C4.5算法繼承了ID3算法的優(yōu)點,并在以下幾方面對ID3算法進行了改進:1) 用信息增益率來選擇屬性,克服了用信息增益選擇屬性時偏向選擇取值多的屬性的不足; 2) 在樹構(gòu)造過程中進行剪枝; 3) 能夠完成對連續(xù)屬性的離散化處理; 4) 能夠?qū)Σ煌暾麛?shù)據(jù)進行處理。C4.5算法有如下優(yōu)點:產(chǎn)生的分類規(guī)則易于理解,準確率較高。其缺點是:在構(gòu)造樹的過程中,需要對數(shù)據(jù)集進行多次的順序掃描和排序,因而導致算法的低效。 2. The k-means algorithm 即K-Means算法k-means algorithm算法是一個聚類算法,把n的對象根據(jù)他們的屬性分為k個分割,k < n。它與處理混合正態(tài)分布的最大期望算法很相似,因為他們都試圖找到數(shù)據(jù)中自然聚類的中心。它假設(shè)對象屬性來自于空間向量,并且目標是使各個群組內(nèi)部的均 方誤差總和最小。 3. Support vector machines支持向量機,英文為Support Vector Machine,簡稱SV機(論文中一般簡稱SVM)。它是一種監(jiān)督式學習的方法,它廣泛的應(yīng)用于統(tǒng)計分類以及回歸分析中。支持向量機將向量映射到一個更 高維的空間里,在這個空間里建立有一個最大間隔超平面。在分開數(shù)據(jù)的超平面的兩邊建有兩個互相平行的超平面。分隔超平面使兩個平行超平面的距離最大化。假 定平行超平面間的距離或差距越大,分類器的總誤差越小。一個極好的指南是C.J.C Burges的《模式識別支持向量機指南》。van der Walt 和 Barnard 將支持向量機和其他分類器進行了比較。 4. The Apriori algorithmApriori算法是一種最有影響的挖掘布爾關(guān)聯(lián)規(guī)則頻繁項集的算法。其核心是基于兩階段頻集思想的遞推算法。該關(guān)聯(lián)規(guī)則在分類上屬于單維、單層、布爾關(guān)聯(lián)規(guī)則。在這里,所有支持度大于最小支持度的項集稱為頻繁項集,簡稱頻集。 5. 最大期望(EM)算法在統(tǒng)計計算中,最大期望(EM,Expectation–Maximization)算法是在概率(probabilistic)模型中尋找參數(shù)最大似然 估計的算法,其中概率模型依賴于無法觀測的隱藏變量(Latent Variabl)。最大期望經(jīng)常用在機器學習和計算機視覺的數(shù)據(jù)集聚(Data Clustering)領(lǐng)域。 6. PageRankPageRank是Google算法的重要內(nèi)容。2001年9月被授予美國專利,專利人是Google創(chuàng)始人之一拉里·佩奇(Larry Page)。因此,PageRank里的page不是指網(wǎng)頁,而是指佩奇,即這個等級方法是以佩奇來命名的。PageRank根據(jù)網(wǎng)站的外部鏈接和內(nèi)部鏈接的數(shù)量和質(zhì)量倆衡量網(wǎng)站的價值。PageRank背后的概念是,每個到頁面的鏈接都是對該頁面的一次投票, 被鏈接的越多,就意味著被其他網(wǎng)站投票越多。這個就是所謂的“鏈接流行度”——衡量多少人愿意將他們的網(wǎng)站和你的網(wǎng)站掛鉤。PageRank這個概念引自 學術(shù)中一篇論文的被引述的頻度——即被別人引述的次數(shù)越多,一般判斷這篇論文的權(quán)威性就越高。 7. AdaBoostAdaboost是一種迭代算法,其核心思想是針對同一個訓練集訓練不同的分類器(弱分類器),然后把這些弱分類器集合起來,構(gòu)成一個更強的最終分類器 (強分類器)。其算法本身是通過改變數(shù)據(jù)分布來實現(xiàn)的,它根據(jù)每次訓練集之中每個樣本的分類是否正確,以及上次的總體分類的準確率,來確定每個樣本的權(quán) 值。將修改過權(quán)值的新數(shù)據(jù)集送給下層分類器進行訓練,最后將每次訓練得到的分類器最后融合起來,作為最后的決策分類器。 8. kNN: k-nearest neighbor classificationK最近鄰(k-Nearest Neighbor,KNN)分類算法,是一個理論上比較成熟的方法,也是最簡單的機器學習算法之一。該方法的思路是:如果一個樣本在特征空間中的k個最相似(即特征空間中最鄰近)的樣本中的大多數(shù)屬于某一個類別,則該樣本也屬于這個類別。 9. Naive Bayes在眾多的分類模型中,應(yīng)用最為廣泛的兩種分類模型是決策樹模型(Decision Tree Model)和樸素貝葉斯模型(Naive Bayesian Model,NBC)。 樸素貝葉斯模型發(fā)源于古典數(shù)學理論,有著堅實的數(shù)學基礎(chǔ),以 及穩(wěn)定的分類效率。同時,NBC模型所需估計的參數(shù)很少,對缺失數(shù)據(jù)不太敏感,算法也比較簡單。理論上,NBC模型與其他分類方法相比具有最小的誤差率。 但是實際上并非總是如此,這是因為NBC模型假設(shè)屬性之間相互獨立,這個假設(shè)在實際應(yīng)用中往往是不成立的,這給NBC模型的正確分類帶來了一定影響。在屬 性個數(shù)比較多或者屬性之間相關(guān)性較大時,NBC模型的分類效率比不上決策樹模型。而在屬性相關(guān)性較小時,NBC模型的性能最為良好。 10. CART: 分類與回歸樹CART, Classification and Regression Trees。 在分類樹下面有兩個關(guān)鍵的思想。第一個是關(guān)于遞歸地劃分自變量空間的想法;第二個想法是用驗證數(shù)據(jù)進行剪枝。

        144 評論(14)

        相關(guān)問答