久久影视这里只有精品国产,激情五月婷婷在线,久久免费视频二区,最新99国产小视频

        • 回答數(shù)

          2

        • 瀏覽數(shù)

          184

        徐珊珊11
        首頁 > 工程師考試 > 算法工程師考試題

        2個回答 默認(rèn)排序
        • 默認(rèn)排序
        • 按時間排序

        好好在一起吧

        已采納

        上采樣upsampling的主要目的是放大圖像,幾乎都是采用內(nèi)插值法,即在原有圖像像素的基礎(chǔ)上,在像素點(diǎn)值之間采用合適的插值算法插入新的元素。 線性插值法是指使用連接兩個已知量的直線來確定在這個兩個已知量之間的一個未知量的值的方法。 假設(shè)已知兩個坐標(biāo)(x0,y0)和(x1,y1),要得到[x0,x1]區(qū)間內(nèi)某一位置x在直線上的值。 該直線的方程可表示為: 這樣 雙線性插值是插值算法中的一種,是線性插值的擴(kuò)展。利用原圖像中目標(biāo)點(diǎn)四周的四個真實(shí)存在的像素值來共同決定目標(biāo)圖中的一個像素值,其核心思想是在兩個方向分別進(jìn)行一次線性插值。 已知的紅色數(shù)據(jù)點(diǎn)和待插值的綠色數(shù)據(jù)點(diǎn) 假如我們想得到未知函數(shù)f在點(diǎn)P= (x,y) 的值,假設(shè)我們已知函數(shù)f在 四個點(diǎn)的值。 在x與y方向上,z值成單調(diào)性特性的應(yīng)用中,此種方法可以做外插運(yùn)算,即可以求解Q11~Q22所構(gòu)成的正方形以外的點(diǎn)的值。 總結(jié):線性插值法利用原圖像中兩個點(diǎn)計(jì)算像素值進(jìn)行插值,雙線性插值法利用原圖像中四個點(diǎn)計(jì)算目標(biāo)像素值進(jìn)行插值。 這是最簡單的一種插值方法,不需要計(jì)算,在待求象素的四鄰象素中,將距離待求象素最近的鄰象素灰度賦給待求象素。設(shè)i+u, j+v(i, j為正整數(shù), u, v為大于零小于1的小數(shù),下同)為待求象素坐標(biāo),則待求象素灰度的值 f(i+u, j+v)如下圖所示: 如果(i+u, j+v)落在A區(qū),即u<, v<,則將左上角象素的灰度值賦給待求象素,同理,落在B區(qū)則賦予右上角的象素灰度值,落在C區(qū)則賦予左下角象素的灰度值,落在D區(qū)則賦予右下角象素的灰度值。 最鄰近元法計(jì)算量較小,但可能會造成插值生成的圖像灰度上的不連續(xù),在灰度變化的地方可能出現(xiàn)明顯的鋸齒狀。 雙線性內(nèi)插法是利用待求象素四個鄰象素的灰度在兩個方向上作線性內(nèi)插。 如下圖所示: 對于 (i, j+v),f(i, j) 到 f(i, j+1) 的灰度變化為線性關(guān)系,則有: f(i, j+v) = [f(i, j+1) - f(i, j)] * v + f(i, j) 同理對于 (i+1, j+v) 則有: f(i+1, j+v) = [f(i+1, j+1) - f(i+1, j)] * v + f(i+1, j) 從f(i, j+v) 到 f(i+1, j+v) 的灰度變化也為線性關(guān)系,由此可推導(dǎo)出待求象素灰度的計(jì)算式如下: f(i+u, j+v) = (1-u) * (1-v) * f(i, j) + (1-u) * v * f(i, j+1) + u * (1-v) * f(i+1, j) + u * v * f(i+1, j+1) 雙線性內(nèi)插法的計(jì)算比最鄰近點(diǎn)法復(fù)雜,計(jì)算量較大,但沒有灰度不連續(xù)的缺點(diǎn),結(jié)果基本令人滿意。它具有低通濾波性質(zhì),使高頻分量受損,圖像輪廓可能會有一點(diǎn)模糊。 該方法利用三次多項(xiàng)式S(x)求逼近理論上最佳插值函數(shù)sin(x)/x, 其數(shù)學(xué)表達(dá)式為: 待求像素(x, y)的灰度值由其周圍16個灰度值加權(quán)內(nèi)插得到,如下圖: 待求像素的灰度計(jì)算式如下: f(x, y) = f(i+u, j+v) = ABC 其中: 三次曲線插值方法計(jì)算量較大,但插值后的圖像效果最好。

        算法工程師考試題

        311 評論(13)

        單眼皮姐姐

        摘 要:本文將BP(Back Propagation)神經(jīng)網(wǎng)絡(luò)應(yīng)用到題庫試題分值的確定中,以解決目前智能組卷研究中題庫試題分值確定的不合理性。在訓(xùn)練網(wǎng)絡(luò)時,對標(biāo)準(zhǔn)BP算法作了相應(yīng)改進(jìn),以適應(yīng)該智能模型的建立。通過案例試驗(yàn),驗(yàn)證了確定試題分值的智能模型的精度是符合實(shí)際要求的,在一定程度上為智能化組卷奠定了基礎(chǔ)。 關(guān)鍵詞:BP算法 題庫 試題分值 引言 題庫是保證考試題目具有較高質(zhì)量、更好地達(dá)到教育測量目標(biāo)的重要手段。隨著計(jì)算機(jī)及網(wǎng)絡(luò)技術(shù),特別是人工智能技術(shù)在現(xiàn)代教育中的推廣及應(yīng)用,教育領(lǐng)域?qū)﹄娮訙y評有了很大的重視,更多地關(guān)注題庫建設(shè)及智能組卷的研發(fā)。 目前,市面上已出現(xiàn)了各種各樣的題庫系統(tǒng)。實(shí)際上題庫建設(shè)仍缺乏科學(xué)理論指導(dǎo),尤其是在試題參數(shù)確定上,主觀因素影響很大,使題庫系統(tǒng)不能很好地實(shí)現(xiàn)預(yù)期的目標(biāo)。例如,試題分值的確定一直沒有一個很好的解決方案。傳統(tǒng)的做法是采用難度賦分法和時間賦分法[1],而沒有考慮其它因素的影響,如知識點(diǎn)數(shù)、知識點(diǎn)的重要程度等??紤]到試題分值與影響試題分值的參數(shù)之間的高度非線性關(guān)系,本文利用BP神經(jīng)網(wǎng)絡(luò)所具備的模擬人的思維、非線性變換和自學(xué)等功能來構(gòu)建試題分值智能確定模型,以克服傳統(tǒng)做法中各種隨機(jī)性和主觀性對分值的影響。 1 基本原理和方法 利用已知樣本對BP網(wǎng)絡(luò)進(jìn)行訓(xùn)練,使其獲得專家經(jīng)驗(yàn)和對確定試題分值的認(rèn)識,當(dāng)對新的樣本進(jìn)行處理時,該網(wǎng)絡(luò)模擬人的思維并再現(xiàn)專家知識經(jīng)驗(yàn),達(dá)到客觀地確定試題分值的目的,具體步驟是: ① 提取確定試題分值的參數(shù),量化處理為(0,1)內(nèi)的精確值作為網(wǎng)絡(luò)輸入。 ② 利用已有的專家知識庫(樣本庫),通過BP算法對網(wǎng)絡(luò)進(jìn)行訓(xùn)練,通過對網(wǎng)絡(luò)參數(shù)及算法參數(shù)的調(diào)整得到穩(wěn)定的網(wǎng)絡(luò)參數(shù)――分?jǐn)?shù)確定模型。為了能在實(shí)際應(yīng)用中保證可接受的計(jì)算精度,我們在訓(xùn)練網(wǎng)絡(luò)時,使它在更高的精度下收斂。 ③ 輸入需要確定分值的相關(guān)試題參數(shù),網(wǎng)絡(luò)根據(jù)自學(xué)獲得的專家知識經(jīng)驗(yàn)對輸入值進(jìn)行處理,然后輸出(0,1)的值作為最終結(jié)果(該試題的分值)。 2 分值確定的BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu) 本文分析總結(jié)出影響題庫試題分值得7個參數(shù)(BP網(wǎng)絡(luò)的輸入向量),作為對該領(lǐng)域問題的首次研究,為了獲得足夠多的有代表性的訓(xùn)練樣本,本文限制參數(shù)“題型”的取值為:1、2、3和4,分別代表單選題、多選題、判斷改錯題和填空題。根據(jù)考試?yán)碚?、命題設(shè)計(jì)理論,屬于這幾類題型的每道試題所考察的知識點(diǎn)一般不超過3個,而且最適合考查識記、理解和應(yīng)用三個認(rèn)知水平。所以本文亦限制參數(shù)“知識點(diǎn)數(shù)”取[1,3]之間的整數(shù),同時限制參數(shù)“認(rèn)知層次”的取值為:1、2和3,分別代表識記、理解和應(yīng)用。從而縮小了樣本空間。7個參數(shù)的取值見表1。 在神經(jīng)網(wǎng)絡(luò)的應(yīng)用中,網(wǎng)絡(luò)結(jié)構(gòu)的選擇很重要,好的網(wǎng)絡(luò)結(jié)構(gòu)可以減少網(wǎng)絡(luò)訓(xùn)練次數(shù),提高網(wǎng)絡(luò)學(xué)習(xí)精度。[2]隱含層數(shù)越多,神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)速度就越慢,根據(jù)Kosmogorov定理,在合理的結(jié)構(gòu)和恰當(dāng)?shù)臋?quán)值條件下,3層BP神經(jīng)網(wǎng)絡(luò)可以逼近任意的連續(xù)函數(shù),因此,我們選取了3層BP網(wǎng)絡(luò)結(jié)構(gòu),如圖1所示。 圖1 其中,輸入層節(jié)點(diǎn)數(shù)目n由影響試題分值參數(shù)個數(shù)確定,這里n=7,由于輸出結(jié)果為一個試題分值,故輸出節(jié)點(diǎn)數(shù)為m=1;在總結(jié)大量網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上,得出隱含層神經(jīng)元數(shù)目的經(jīng)驗(yàn)公式為 由此本文初步確定隱含層的神經(jīng)元數(shù)目為s=5。在實(shí)驗(yàn)仿真時,我們將動態(tài)調(diào)整隱含層的神經(jīng)元數(shù)目,以獲得網(wǎng)絡(luò) 3 調(diào)整BP算法 動態(tài)調(diào)整隱含層單元數(shù)目和學(xué)習(xí)步長 如上所述,初步確定隱含層神經(jīng)元數(shù)目為5,然后,通過人機(jī)交互,增加或減少隱含層神經(jīng)元數(shù)目,分析比較全局誤差的震蕩程度、誤差遞減程度、誤差穩(wěn)定后的網(wǎng)絡(luò)精確程度及網(wǎng)絡(luò)的收斂性能,從而確定隱含層神經(jīng)元數(shù)目。本文訓(xùn)練網(wǎng)絡(luò)時既沒有采用固定步長,也沒有采用自適應(yīng)調(diào)整步長的方法,而是采用人機(jī)交互動態(tài)調(diào)整的方法,筆者認(rèn)為這樣雖然麻煩,但對步長的調(diào)整是更智能的。 選擇模式對的方法及全局誤差的計(jì)算 本文將所有的樣本都存儲在數(shù)據(jù)庫中,并把2/3的樣本作為訓(xùn)練樣本,在選擇模式對時,從訓(xùn)練樣本的第一條記錄開始一直到最后一條,如此循環(huán)。經(jīng)過反復(fù)實(shí)驗(yàn),驗(yàn)證了這種方法比隨機(jī)選擇的方法更加有效,表現(xiàn)為網(wǎng)絡(luò)誤差遞減明顯,基本不存在震蕩。通過分析,筆者認(rèn)為,在隨機(jī)選擇方法中,由于隨機(jī)性,不能保證所有的代表性樣本都被選中,使得樣本不再代表整體,失去了樣本的意義,致使誤差遞減緩慢,震蕩明顯,訓(xùn)練不得收斂。采用下式計(jì)算全局誤差: 其中,fp是輸出層的實(shí)際輸出,y是期望輸出,M為訓(xùn)練樣本總數(shù),E是全局誤差,N為正整數(shù),該值的選擇要合理,否則會使網(wǎng)絡(luò)進(jìn)入局部極小值,或者誤差遞減緩慢,震蕩明顯,訓(xùn)練難于收斂。 4 題庫試題分值確定實(shí)例及分析 樣本的選取 樣本應(yīng)很好地代表整體,這就要求必須有足夠訓(xùn)練樣本,否則樣本只能代表整體中的某一部分,這樣即使網(wǎng)絡(luò)訓(xùn)練到了很高的精度,當(dāng)實(shí)際應(yīng)用時會發(fā)現(xiàn)網(wǎng)絡(luò)誤差有時變得很大,根本無法使用。根據(jù)這一原則及確定試題分值得參數(shù)個數(shù)和每一參數(shù)的取值,我們至少需要22500個訓(xùn)練樣本??紤]到獲取樣本的難度及分值確定所需要的實(shí)際精度,本文從我們正在研發(fā)的《計(jì)算機(jī)文化基礎(chǔ)》課程的智能題庫中提取了具有高度代表性800個訓(xùn)練樣本和400個試驗(yàn)樣本,由于題庫中的試題的難度、區(qū)分度等參數(shù)是經(jīng)過測試得到的,所以是比較可信的,答題時間及分值根據(jù)經(jīng)驗(yàn)人為估算而得。為了提高網(wǎng)絡(luò)精度,我們又組織了一個專門小組(三位相關(guān)專業(yè)的教授和7位信息技術(shù)教學(xué)論專業(yè)的碩士研究生)對1200個樣本的估計(jì)答題時間及分值進(jìn)行了比較嚴(yán)密的估算,估算值精確到。估算方法是十位小組成員分別對每個樣本的答題時間及分值估算,然后去掉一個最高分和一個最低分,把剩下的八個估算值計(jì)算加權(quán)平均值,所得的值即為最后的答題時間或分值。 樣本歸一化處理 為了使歸一化處理的結(jié)果盡可能均勻分布在[0,1]之間,本文采用了如下式所示的歸一化方法: 確定訓(xùn)練網(wǎng)絡(luò)的精度 在實(shí)際中,我們通常以的整數(shù)倍作為某一試題的分值,所以如果得到的BP網(wǎng)絡(luò)模型能精確到就可以了,然后根據(jù)類四舍五入的方法把它處理為的整數(shù)倍的一個值。當(dāng)結(jié)果的小數(shù)部分小于時,則舍掉,當(dāng)介于[,],則處理為,大于等于,則向整數(shù)進(jìn)1。這是符合實(shí)際要求的。然而,經(jīng)訓(xùn)練達(dá)到某一精度的網(wǎng)絡(luò)在實(shí)際應(yīng)用時,其誤差總是圍繞某固定值上下波動。特別是當(dāng)樣本的代表性較差時,更是如此。為此,我們在訓(xùn)練樣本時,將網(wǎng)絡(luò)的全局誤差設(shè)置得比實(shí)際要求的更小。本研究將其設(shè)為10-5。 網(wǎng)絡(luò)訓(xùn)練過程 本研究在網(wǎng)絡(luò)訓(xùn)練時,隱含層單元數(shù)動態(tài)調(diào)整,以得到更合適的隱含層單元數(shù)目。沒有采用動量項(xiàng)(經(jīng)試驗(yàn),沒有動量項(xiàng)效果更好),步長動態(tài)調(diào)整,將其初值設(shè)為1,然后根據(jù)誤差遞減情況以的幅度在[0,1]之間調(diào)整。循環(huán)選擇800個訓(xùn)練樣本對網(wǎng)絡(luò)進(jìn)行訓(xùn)練,每循環(huán)m次計(jì)算一次全局誤差,每循環(huán)n(n為m的整數(shù)倍)次觀察記錄一次誤差變化情況,通過分析比較決定步長調(diào)整方向。訓(xùn)練網(wǎng)絡(luò)的主要程序代碼(c#)如下: button3_Click(object sender,EventArgs e) 本文為全文原貌 未安裝PDF瀏覽器用戶請先下載安裝 原版全文 {h_num= (()); //動態(tài)指定隱含層單元數(shù) wj=new double[h_num];//輸出-隱含權(quán)值 wij=new double[7,h_num];//隱含-輸入權(quán)值 hvj=new double[h_num];//隱含層閾值 int i,j; netj=new double[h_num];//隱含層輸入向量 xi=new double[7];//輸入層輸入向量 comm2=(); hoj=new double[h_num];//隱含層輸出向量 ej=new double[h_num];//隱含層的一般誤差 //初始化權(quán)值、閾值、步長及動量系數(shù) a=(()); //初始化輸出節(jié)點(diǎn)閾值 double e1=,E1=e1+1,E2=0; int count=0,count1=0; for(i=0;i=yb_count+1) ybbh=1; ybbh=(1,yb_count+1); = "select * from gyhVIEW where 樣本編號="+ " ’" + ybbh + " ’" ; dr1 = (); if (()) {for (i = 0;i = 3*yb_count) { E1 = E2 /3*yb_count;count = 0;count1 += 1; if (count1 >= 1000) {if ((() + " a="+ () + "減小步長?","提示信息", , ) == ) { a -= ;} if ((() + "增加步長?","提示信息", , ) == ) { a += ;} count1 = 0;}}} 通過反復(fù)訓(xùn)練和比較分析,最后將網(wǎng)絡(luò)隱含層單元數(shù)目確定為6,每循環(huán)3次計(jì)算一次全局誤差,次每循環(huán)3000次觀察記錄一次誤差變化情況,學(xué)習(xí)步長從1調(diào)整到,最后在時收斂。共訓(xùn)練了1128萬次。模型穩(wěn)定后,輸入層與隱含層的連接權(quán)值如圖3所示(其中i表示輸入層單元序號,wij表示輸入層單元i與隱含層單元j的連接權(quán)值),隱含層與輸出層的連接權(quán)值及隱含層閾值如圖4所示(其中j表示隱含層單元序號),輸出層閾值為。 觀察分析網(wǎng)絡(luò)模型的測試誤差,基本都小于,最小值為,最大值為,完全滿足題庫試題分值確定所要求的精度(),符合實(shí)際用需求。 結(jié)束語 本文將BP神經(jīng)網(wǎng)絡(luò)應(yīng)用到題庫試題分值的確定中,為題庫試題分值得確定提供了一種可行的方法。在應(yīng)用BP算法時,動態(tài)調(diào)整隱含層單元數(shù)目,動態(tài)調(diào)整學(xué)習(xí)步長,采用循環(huán)選擇訓(xùn)練樣本的模式對選擇方法,經(jīng)過特定次數(shù)的循環(huán)訓(xùn)練后計(jì)算一次全局誤差。所有這些均源于本模型的準(zhǔn)確建構(gòu)。另外,如果訓(xùn)練樣本能夠很好地代表整體,用這種方法將能建立精度更高的確定試題分值的智能模型。 參考文獻(xiàn): [1]胡中鋒,李方.教育測量與評價[M].廣東高等教育出版社,. [2]Hadi, applications in concrete structures. Computers and Structures Volume:81,Issue:6,March,2003,. [3]姜華,趙潔.基于BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)行為評價模型及實(shí)現(xiàn)[J].計(jì)算機(jī)應(yīng)用與軟件,,(8):89-91. [4]戴永偉,雷志勇.BP網(wǎng)絡(luò)學(xué)習(xí)算法研究及其圖像識別應(yīng)用[J].計(jì)算機(jī)與現(xiàn)代化,:68-70. [5]宋乃華,邢清華.一種新的基于粒群優(yōu)化的BP網(wǎng)絡(luò)學(xué)習(xí)算法[J].計(jì)算機(jī)工程,:181-183. 基金項(xiàng)目:全國教育科學(xué)“十一五”規(guī)劃教育考試學(xué)研究重點(diǎn)課題項(xiàng)目(2006JKS3017);山西省教育科學(xué)“十一五”規(guī)劃課題(GH-06106)。 注:“本文中所涉及到的圖表、注解、公式等內(nèi)容請以PDF格式閱讀原文?!? 本文為全文原貌 未安裝PDF瀏覽器用戶請先下載安裝 原版全文

        187 評論(10)

        相關(guān)問答