亚洲欧美精品沙发,日韩在线精品视频,亚洲Av每日更新在线观看,亚洲国产另类一区在线5

<pre id="hdphd"></pre>

  • <div id="hdphd"><small id="hdphd"></small></div>
      學習啦 > 論文大全 > 畢業(yè)論文 > 計算機論文 > 計算機理論 > 論粗糙集與其他軟計算理論進行結合

      論粗糙集與其他軟計算理論進行結合

      時間: 若木633 分享

      論粗糙集與其他軟計算理論進行結合

        隨著計算機技術和網絡技術的迅速發(fā)展與廣泛應用,人類社會進入了信息爆炸的時代,如何處理并有效利用這些信息已經成為世界各國學者研究的熱點問題。軟計算就是在這種需求背景下出現的一種新技術。軟計算最初是由模糊集理論的創(chuàng)始人Zadeh[1]在1994年提出的,它是一種通過對不確定、不精確及不完全真值的數據進行容錯處理從而取得低代價、易控制處理以及魯棒性高的方法的集合。目前,軟計算的理論與方法主要包括神經網絡、模糊集、粗糙集、遺傳算法、證據理論等。

        粗糙集是在最近幾年發(fā)展較快的一門理論,它是一種用于分析和處理不確定、不精確問題的數學理論,是由波蘭數學家Pawlak[2]在1982年提出的。它的基本思想是通過論域上的等價關系將論域劃分成若干個等價類,然后利用這些知識對所需處理的不精確或不確定的事物進行一個近似的刻畫。

        粗糙集理論最大的特點是它對論域的劃分只依賴于所需處理的數據集合本身,不需要任何先驗信息,所以對問題不確定性的描述或處理是比較客觀的。這一點也是它與其他軟計算理論之間的顯著區(qū)別。不過,粗糙集在原始數據不精確或不確定時,是無法處理數據的,這恰好與軟計算中的其他理論有很強的互補性。因此,粗糙集與其他軟計算理論和方法的結合已成為粗糙集研究中的一個重要內容。本文將對粗糙集與模糊集、神經網絡、概念格以及證據理論等軟計算理論的結合研究情況進行介紹,并指出這方面未來的研究發(fā)展方向。

        1 粗糙集理論概述

        粗糙集是一種用于解決不確定性問題的數學工具。粗糙集理論中知識被理解為對事物進行區(qū)分的能力,在形式上表現為對論域的劃分,因而通過論域上的等價關系表示。粗糙集通過一對上、下近似算子來刻畫事物,它不需要數據以外的任何先驗知識,因此具有很高的客觀性。目前,粗糙集被廣泛用于決策分析、機器學習、數據挖掘等領域[3~8]。

        1.1 粗糙集中的基本概念

        定義1 論域、概念。設U是所需研究的對象組成的非空有限集合,稱為一個論域,即論域U。論域U的任意一個子集XU,稱為論域U的一個概念。論域U中任意一個子集簇稱為關于U的知識。

        定義2 知識庫。給定一個論域U和U上的一簇等價關系S,稱二元組K=(U,S)是關于論域U的知識庫或近似空間。

        定義3 不可分辨關系。給定一個論域U和U上的一簇等價關系S,若PS,且P≠?,則∩P仍然是論域U上的一個等價關系,稱為P上的不可分辨關系,記做IND(P)。

        稱劃分U/IND(P)為知識庫K=(U,S)中關于論域U的P-基本知識。

        定義4 上近似、下近似。設有知識庫K=(U,S)。其中U為論域,S為U上的一簇等價關系。對于?X∈U和論域U上的一個等價關系R∈IND(K),則X關于R的下近似和上近似分別為

        下近似 R(X)=∪{Y∈U/R|YX}

        上近似 R(X)=∪{Y∈U/R|Y∩X=?}

        集合的上近似和下近似是粗糙集中最核心的概念,粗糙集的數字特征以及拓撲特征都是由它們來描述和刻畫的。當R=(X)時,稱X是R-精確集;當R(X)≠(X)時,稱X是R-粗糙集,即X是粗糙集。

        1.2 粗糙集中的知識約簡

        在一個信息系統(tǒng)中,有些描述對象的屬性可能是不必要的,因此需要將這些冗余的屬性予以刪除來提高系統(tǒng)的效率。

        給定一個知識庫K=(U,S),對于PS,?R∈P,如果IND(P)=IND(P-{R})成立,則稱R為P中不必要的,否則稱R為P中必要的。如果P中的每個R都是必要的,則稱P是獨立的。

        定義5 約簡、核。給定一個知識庫K=(U,S)和知識庫上的一簇等價關系PS,對于任意GP,如果G是獨立的,并且IND(G)=IND(P),則稱G是P的一個約簡,記為G∈RED(P)。P中所有必要的知識組成的集合稱為P的核,記為Core(P)。約簡與核的關系為Core(P)=∩RED(P),即核是約簡的交集。

        常見的粗糙集中知識約簡的算法主要有盲目刪除約簡法、基于Pawlak屬性重要度的約簡法和基于差別矩陣的約簡法。其中,盲目刪除法是通過任意選擇一個屬性,看其是否是必要的,如果是必要的則保留,否則刪除該屬性,這種方法簡單直觀,但約簡的結果卻不一定讓人滿意;基于Pawlak屬性重要度的方法是根據屬性的重要度來進行約簡,其特點是用這種方法可以得到信息系統(tǒng)的最優(yōu)約簡或次優(yōu)約簡,但它卻存在找不到一個約簡可能性;基于差別矩陣的方法是把論域中區(qū)分任意兩個對象的屬性集合用矩陣的形式表示出來,通過這個矩陣可以直觀地得出信息系統(tǒng)的核和所有約簡,這種方法雖然能很直觀地得出信息系統(tǒng)的所有約簡和核,但當問題規(guī)模較大時會產生組合爆炸。此外,也有學者對知識的約簡提出了一些改進的新算法。文獻[10, 11]基于鄰域對粗糙集的屬性和屬性值的約簡進行了優(yōu)化處理;文獻[12]提出了一種新的屬性約簡方法ReCA,提高了對連續(xù)性屬性的數據的知識約簡性能。

        粗糙集在處理不確定問題中新穎獨特的方法引起了大量學者的興趣,很多學者對該理論作出了擴展性的研究[13~17],包括覆蓋粗糙集[18~21]、變精度的粗糙集[22]等很多新的內容。文獻[23]對粗集的公理化進行了深入的研究,得到了兩個關于粗集的最小公理組;文獻[24]通過松弛對象之間的不可分辨和相容性條件,給出了一種新的基于和諧關系的粗糙集模型;文獻[25]構造了關于決策表對象的區(qū)分條件,并借助區(qū)分矩陣與區(qū)分函數提出了一種完備的約簡方法;文獻[16]將組合熵和組合粒度的概念引入到了粗糙集中,確立了兩者之間的關系;文獻[26]提出了在不協(xié)調目標信息系統(tǒng)中知識約簡的新方法;文獻[27]提出了屬性左劃分和屬性右劃分的觀點,設計了一種基于劃分的屬性約簡算法ARABP;文獻[28]從屬性和信息熵的角度探討了粗糙集的不確定性的度量。這些研究極大地推動了粗糙集理論的發(fā)展和應用。

        2 粗糙集與模糊集

        模糊集理論是由美國學者Zadeh于1965年提出的,模糊集指的是這樣一種集合,這個集合中的每個元素都是在一定程度上隸屬于或者不隸屬于這個集合,用于衡量這種隸屬程度的函數被稱為隸屬函數。模糊集中的任意一個元素都是通過隸屬函數來確定一個隸屬度與之一一對應。

        2.1 模糊集理論的基本概念

        定義6 隸屬度、隸屬函數。設U是一個論域,A是U上的一個模糊集,如果?x∈U,均能確定一個數μ?A(x)∈[0,1]來表示x隸屬于A的程度,稱這個數是x對A的隸屬度。其中μ?A(x)是這樣一個映射:μ?A:U→[0,1],x|→μ?A(x)∈[0,1],?μ?A(x)稱為A的隸屬函數。

        隸屬函數是模糊集的核心基礎概念,由它來確定和描述一個模糊集。對于同一個論域,不同的隸屬函數確定不同的模糊集,如μ?A(x)和μ?B(x)是論域U上的兩個不同的隸屬函數,則由它們可以確定兩個不同的模糊集A和B。模糊集是經典集合理論的擴展,當一個模糊集的隸屬度只能取0或1時,即μ?A(x)∈{0,1},模糊集A便退化為一個經典集合論中的普通集合。

        2.2 模糊集與粗糙集的互補性

        在模糊集中,隸屬函數一般是根據專家的經驗知識或者通過一些統(tǒng)計數據結果來確定,具有很大的主觀性,而缺乏一定的客觀性,這也是模糊集的一個根本缺陷。粗糙集中的上近似和下近似是由已知知識庫中客觀存在的對象來確定的,不需要任何先前的假設條件,具有很強的客觀性。但是,在實際的生活中,有很多已知的、確定的而無須再去進行判斷的先驗知識,如果能直接利用這些知識來解決問題,會帶來很高的效率,而這一點又正是粗糙集所欠缺的。由此可見,粗糙集與模糊集各自的特點之間具有很強的互補性,把它們結合起來解決問題通常都會比單獨使用它們更為有效。在這方面的研究已經有了很大的進展和很多的具體應用,粗糙模糊集和模糊粗糙集[29]便是其中兩個重要的研究成果。

        粗糙模糊集主要是通過對模糊集中的隸屬函數采用粗糙集中集合的上近似與下近似的方法來進行描述,以此來增強模糊集處理問題的客觀性。它是把粗糙集中的上下近似的特點融入到了模糊集當中,將模糊集中的隸屬函數概念擴展成上近似的隸屬函數和下近似的隸屬函數,由這兩個隸屬函數所確定的隸屬度值來形成一個區(qū)間;用這個區(qū)間來描述一個元素隸屬于一個模糊集的可能性范圍,而不再是之前的元素與隸屬度之間一一對應的情況,即x∈A的隸屬度不再是μ?A(x)∈[0,1],而是在[下近似的隸屬度,上近似的隸屬度]這個區(qū)間。粗糙模糊集的基本定義如下:

        定義7 粗糙模糊集。設U是一個論域,R是U上的一個等價關系,A是U上的一個模糊集,μ?A(x)是A的隸屬度函數,R(A)和(A)分別表示A的上近似和下近似,它們對應的隸屬函數是:

        a)下近似的隸屬函數μR(A)([x]?R)=inf{μ?A(x)|x∈[x]?R},?x∈X;

        b)上近似的隸屬函數μ(A)=sup{μ?A(x)|x∈[x]?R},??x∈X。

        稱R(X)=(R(X),(X))為粗糙模糊集。

        模糊粗糙集是把模糊集中的隸屬函數的概念應用到了粗糙集當中,根據模糊集中的隸屬函數來確定粗糙集中的一個等價關系,即把由隸屬函數得到的隸屬度相同的元素歸屬于同一等價類,從而得到論域U上的一個劃分。這其實就是將模糊集中已知的、確定的而無須再判斷的知識轉變?yōu)榇植诩械牡葍r關系,得到粗糙集上的一簇等價類,提高粗糙集處理問題的效率。模糊粗糙集的基本概念定義如下:

        定義8 模糊粗糙集。給定一個論域U,A是U的一個模糊集,μ?A(x)是A的隸屬函數。設R?A為U上的一個等價關系,且滿足對于?x,y∈U,xR?Ay?μ?A(x)=μ?A(y)。令[x]R??A表示以x為代表元素的等價類,若XU,X≠?,則X關于R?A的下近似和上近似分別為

        下近似 R?A(X)=∪{[x]R??A|[x]R??AX}

        上近似 ?A(X)=∪{[x]R??A|[x]R??A∩X≠?}

        若R?A(X)=?A(X),稱X是R?A-可定義集;若R?A(X)≠?A(X),稱X是R?A-模糊粗糙集。

        粗糙模糊集和模糊粗糙集對粗糙集和模糊集進行很好的互補性處理,已經在很多領域得到了實際應用[30~33],并取得了很好的效果。有很多學者對它們進行了進一步的比較研究[34~37],作了一些改進和擴展。文獻[38]在覆蓋粗糙集的基礎上,結合模糊集的最近尋常集,引入了覆蓋廣義粗糙集模糊度的概念,給出了一種模糊度計算方法,并證明了該模糊度的一些重要性質;文獻[39]提出了模糊不可分辨關系的概念,加強了粗糙集對模糊值屬性處理能力。

        3 粗糙集與神經網絡

        神經網絡是在現代神經生物學研究成果的基礎上發(fā)展起來的一種模仿人腦信息處理機制的網絡系統(tǒng)。它具有在有監(jiān)督或無監(jiān)督的情況下從輸入數據中進行學習的能力,被廣泛地應用于數據挖掘[40~42]、模式識別[43~47]、信號處理[48,49]、預測[50, 51]等領域。

        3.1 神經網絡基本知識

        神經網絡[52]是一個由簡單處理單元構成的規(guī)模宏大的并行分布式處理器,天然具有存儲經驗知識和使之可用的特性。神經元是神經網絡最基本的信息處理單元,它具有接收和傳遞信息的功能。一個神經網絡是由眾多的神經元組成,每個神經元接收其他神經元和外界的輸入信息。神經網絡的結構通常都是以層的方式來組織的,一般包含一個輸入層、任意多個隱藏層和一個輸出層,每層都由眾多的神經元組成。其基本原理是輸入層神經元接收外界環(huán)境的信息輸入,隱藏層神經元將隱藏層單元的信息輸出至輸出層,輸出層將信息輸出至外界。根據神經元信息的輸出是否存在反饋,又將神經網絡分為前饋神經網絡和遞歸神經網絡。

        3.2 粗糙集與神經網絡的聯系

        粗糙集對事物的識別和判斷是基于論域上的不可辨關系,它不需要任何先驗的信息。通過系統(tǒng)參數的重要度函數來獲得描述事物各個屬性的重要度,依此不僅可以進行屬性的約簡,而且也可以用于把握事物的主要特征,提高識別能力。粗糙集可以實現對信息系統(tǒng)的知識約簡,去除冗余的信息,減少輸入信息的空間維度,提高處理效率。不過粗糙集的抗干擾能力較差,對于噪聲較為敏感,在噪聲較大的環(huán)境中就表現得不盡如人意。

        神經網絡的特點就是通過訓練和學習產生一個非線性的映射,模擬人的思維方式,具有很好的自適應性,可以實現有監(jiān)督和無監(jiān)督的學習,并能夠對信息進行并行處理;同時,它具有很好的抑制噪聲的能力。但是神經網絡也有很明顯的缺陷,它無法對輸入的信息進行有用性或冗余性的判斷,因此不能對輸入的信息進行簡化,這使得它在處理空間維數較大的信息時會很困難和低效。

        粗糙集與神經網絡各自的長處和短處讓人們發(fā)現它們具有很好的互補性;另外,從對人類思維模擬的角度看,粗糙集方法模擬人類的抽象邏輯思維,而神經網絡方法模擬人類的形象直覺思維。因此,將兩者結合起來,用粗糙集的特點去彌補神經網絡在處理髙維度數據上的不足,而用神經網絡的抗干擾強的特性去彌補粗糙集對噪聲的敏感性,將模擬人的抽象思維與形象直覺思維相結合,就會得到更好的效果。目前,這方面的研究已成為一個重要的研究方向。

        3.3 粗糙集與神經網絡的結合

        粗糙集與神經網絡最常見的結合方式主要有兩種:a)將粗糙集作為神經網絡的前端處理器[53],通過利用粗糙集先對原始信息進行屬性及屬性值的約簡,去除冗余信息,降低信息空間的維度,為神經網絡提供一個較為簡化的訓練集,然后再構建和訓練神經網絡。這樣的結合方式不僅縮短了神經網絡的學習和訓練的時間,提高了系統(tǒng)反應速度,而且也可以充分發(fā)揮神經網絡在抗噪性和容錯性的優(yōu)勢,達到提高神經網絡整體性能的目的。b)通過在神經網絡中引入一種粗糙神經元來進行,將粗糙神經元與普通神經元混合起來使用構成粗糙神經網絡。

        粗糙神經元是Lingras[54]設計的一種由一對重疊的普通神經元——上神經元和下神經元r組成,如圖1所示。粗糙神經元中上神經元和下神經元r整體看成是一個神經元r,神經元之間的連線表示信息的相互交換。圖2~4分別表示粗糙神經r與s之間的全連接、抑制連接和激勵連接三種常見連接方式。粗糙神經元的輸出是具有上近似和下近似的一對數值,而普通神經元只有一個輸出值。下近似或上近似的神經元輸入根據以下公式計算權值:

        input?i=?nj=1wji×output?j

        其中:wji為神經元j到i神經元間的連接權值,n表示i與j間存在的連接個數。

        若f(u)為神經元激勵函數,則粗糙神經元的上下神經元的輸出值分別為

        output?=max(f(input?), f(inputr))

        output?r=min(f(input?), f(inputr))

        計算普通神經元i的單個輸出值的公式:

        output?i=f(input?i)

        函數f(input)為sigmoid型函數,定義如下:

        f(u)=1/(1+e??-gain×u)

        其中:增益系數gain是由系統(tǒng)的設計者確定的斜率。f(u)采用sigmoid型轉移函數是因這種轉移函數在0~1具有連續(xù)的取值。

        有關粗糙集與神經網絡的結合研究,還有其他學者研究提出的一些新的結合方式,如強耦合集成[55]方式,為解決神經網絡設計中的網絡的隱層數、隱層節(jié)點數和初始權值的確定及網絡語義提供了一種便于實現的新思路。隨著軟計算理論中的各種理論和技術的不斷發(fā)展和創(chuàng)新,將神經網絡與諸如進化算法、概念格、證據理論及混沌學等加強結合研究,相信會取得更加讓人振奮的成就。

        4 粗糙集與遺傳算法

        遺傳算法[56]是一種自然進化系統(tǒng)的計算機模型,也是一種通用的求解優(yōu)化問題的適應性搜索方法。它的本質特征在于群體搜索策略和簡單的遺傳算子,是目前進化算法中最為重要的一種算法,廣泛地應用于人工智能、數據挖掘、自動控制及商業(yè)等領域。

        4.1 遺傳算法基本原理

        遺傳算法通過模擬自然選擇和遺傳機制,以迭代的方式對其研究的對象群體進行適應性評價、選擇、重組,直到目標群體滿足預定的要求或者達到最大迭代次數,從而得到其希望的最優(yōu)解。遺傳算法的關鍵問題是對問題空間中個體的編碼方式的選擇、適應函數的確定,以及遺傳策略中選擇、交叉、變異三個遺傳算子和選擇概率p?s、交叉概率p?c、變異概率p?m等遺傳參數的確定。下面是一個標準遺傳算法的算法描述[56]:

        迭代開始(iteration):t=0

        初始化(initialize):P(0)={a?1(0),a?2(0),…,a?n(0)}

        適應性評價(evaluate):P(0)={f(a?1(0)),…, f(a?n(0))}

        while(循環(huán))T(P(t))≠true do

        選擇(select):P′(t)=s(P(t),p?s)

        交叉(crossover):P″(t)=c(P′(t),p?c)

        變異(mutate):P?(t)=m(P″(t),p?m)

        新一代群體:P(t+1)=P?(t),t=t+1

        適應性評價(evaluate):

        P(t+1)={f(a?1(t+1)),…, f(a?n(t+1))}

        結束(end do)

        4.2 粗糙集與遺傳算法的結合

        粗糙集與遺傳算法的結合主要應用在屬性的約簡[57~59]、數據挖掘[60]等方面。粗糙集中對于屬性的約簡通常采用啟發(fā)式算法,如基于Pawlak屬性重要度的屬性約簡算法、基于差別矩陣的屬性約簡算法等。這種方法在一定的問題規(guī)模范圍內會較為有效,但隨著問題的規(guī)模增大,其最小約簡的求解難度也會大幅增加。遺傳約簡算法是求取信息系統(tǒng)最小約簡或者相對最小約簡的一種算法。所謂最小約簡或者相對最小約簡,就是屬性集的所有約簡或者相對約簡中,包含屬性個數最少的屬性集。由于遺傳算法是一種基于全局優(yōu)化的搜索方法,并具有并行性和很好的魯棒性,能夠防止搜索陷入局部最優(yōu)解的困境,更利于處理大規(guī)模問題的約簡。

        文獻[57]根據可辨別關系的下三角矩陣,利用遺傳算法提出一種基于遺傳算法的粗糙集知識約簡算法,這種算法不僅可以得到正確的約簡,而且也能解決粗糙集中啟發(fā)式算法無法求解的部分問題;文獻[61]將信息論角度定義的屬性重要性度量作為啟發(fā)式信息引入遺傳算法,并構造一個新的算子modifypop(t+1)來對種群進行修復,既保證了算法的整體優(yōu)化性,也提高了算法的收斂速度。在數據挖掘方面,文獻[60]將粗糙集與遺傳算法相結合,提出一種從大型數據表中獲取決策規(guī)則的方法。該方法利用粗糙集中屬性的重要度和核的思想得到屬性的約簡,然后借助遺傳算法來求得最優(yōu)解。

        此外,對連續(xù)屬性的離散化處理是粗糙集中的一個重要問題。屬性離散化處理的關鍵在于選取合適的斷點對條件屬性構成的空間進行劃分以減少搜索空間。文獻[62]針對該問題利用遺傳算法將最小斷點集作為優(yōu)化目標,并構造一個新的算子來保證所選斷點能保持原決策系統(tǒng)的不可分辯關系。

        5 粗糙集與概念格

        概念格理論也被稱做形式概念分析理論,是由德國數學家While提出的一種基于概念和概念層次的數學化表達[63],對于數據分析和規(guī)則提取非常有效。目前廣泛應用于機器學習[64]、軟件工程[65]等領域。

        5.1 概念格理論的基本知識

        定義9[66] 形式背景。稱(U,A,I)為一個形式背景,其中U={x?1,x?2,…,x?n}為對象集,每個x?i(i≤n)稱為一個對象;A={a?1,a?2,…,a?n}為屬性集,每個a?j(j≤m)稱為一個屬性;I為U與A之間的二元關系,IU×A。若(x,a)∈I ,則說x具有屬性a,記為xIa。

        在形式背景(U,A,I)下,若對象子集XU,屬性子集BA,分別定義運算算子X?*和B?*為

        X?*={a|a∈A,?x∈X,xIa}

        B?*={x|x∈U,?a∈B,xIa}

        其中:X?*表示X中所有對象共同具有的屬性的集合,B?*表示共同具有B中所有屬性的對象集合。

        定義10 形式概念。設(U,A,I)為形式背景,如果一個二元組(X,B)滿足X?*=B且B?*=X,則稱(X,B)是一個形式概念,簡稱概念。其中,X稱為概念的外延,B稱為概念的內涵。

        定義11[67] 子概念、父概念。如果(X?1,B?1)≤(X?2,B?2),且兩者之間不存在與它們不同的概念(Y,C),滿足(X?1,?B?1)≤(Y,C)≤(X?2,B?2),則稱(X?1,B?1)是(X?2,B?2)的子概念,(X?2,B?2)是(X?1,B?1)的父概念。

        5.2 粗糙集與概念格的聯系

        粗糙集與概念格之間都是基于二元關系的數據表來展開研究的。粗糙集是根據其論域上的不可辨關系實現對論域的劃分,產生若干個等價類。概念格是基于形式概念,結合序理論和完備格理論進行概念分層討論。概念格的每個概念就是具有最大共同屬性的對象的集合,這一點與粗糙集的等價類非常相似。在形式背景中,外延即是由內涵所確定的等價類。因此,粗糙集的一些性質包括等價類,上、下近似等都可以通過概念來描述;同時,利用概念格的特殊結構可以得到函數依賴,從而可以用概念格來直觀地進行條件屬性的約簡。

        粗糙集與概念格的相似性讓兩個理論之間有了密切的聯系,很多學者將它們結合起來研究。魏玲等人[67]分析研究了形式概念與等價類、概念格與劃分之間的相互關系,得出粗糙集中的劃分和概念格理論中的概念格可以進行相互轉換的結論;文獻[68]將粗糙集理論中屬性約簡和辨識矩陣的概念引入到形式概念分析中,實現了形式背景中冗余知識的約簡;Yao[69,70]基于對象定向概念的概念格討論了概念格和粗糙集理論之間的對應關系,將粗糙集理論中上下近似的思想引入到形式概念分析中,分別討論了形式概念分析中的幾種近似算子。文獻[71]將包含度和偏序集的概念引入到形式概念分析中,對形式概念分析中的一些基本概念分別用包含度和偏序集加以表示。文獻[72]利用形式概念分析中的名義梯級背景(nominal scale)和平面梯級(plain scaling)的概念,論證了粗糙集理論中的上下近似、屬性依賴等核心概念都可以在相應的衍生背景中進行表示,并指出利用梯級的概念可以對粗糙集理論進行擴展,為兩者的融合提供了一個理論平臺。文獻[73]的研究結合粗糙集與概念格理論,給出了在形式背景下概念集合上的元素之間的二元運算,使一般意義下的概念格成為帶有算子的概念格。

        6 粗糙集與證據理論

        證據理論[74]也常稱做D-S理論,是一種利用一組函數來處理不確定性問題的理論。證據理論中的證據指的是研究對象的屬性或者專家經驗等。

        6.1 證據理論基礎

        設Θ表示對一個問題的所有可能答案的集合,其中的每一個答案θ都是Θ的一個子集,子集之間是無交集的,稱Θ為辨識框架。

        定義12[75] 基本可信度分配函數。設Θ是一個辨識框架,如果集函數m:2?Θ→[0,1]滿足m(Φ)=0,并且?A?Θm(A)=1,則稱m為Θ上的基本可信度分配函數;?A?Θ,m(A)稱為A的基本可信度。

        在定義12的基礎上,本文定義Θ的冪集2?Θ上的三個測度?函數:

        a)信任函數Bel,Bel(X)=?AXm(A),?XΘ;

        b)似然函數pl,pl(X)=?A∩X≠?m(A);

        c)公共函數Q,Q(X)=?X?Am(X)。

        其中:信任函數Bel表達了對每個命題的信度;似然函數pl(X)表示對命題X不懷疑的程度;公共函數Q(X)反映了包含X的集合的所有基本可信度之和。

        6.2 粗糙集與證據理論的聯系

        證據理論根據可信度分配函數來定義信任函數、似然函數,通過這對函數在給定證據下對假設進行估計和評價。在證據理論中,證據主要是已知的事物的屬性或者專家經驗等一些先驗知識,這使得證據推理具有較強主觀性,限制了其使用范圍。證據理論的這些特征與粗糙集存在明顯的互補性和相似性。粗糙集對于問題的解決是基于一對客觀的近似算子,具有很強的客觀性;而粗糙集中的下、上近似與證據理論中的信任函數、似然函數在形式上又有著一定的相似性。將兩者的優(yōu)勢進行互補以及相似性進行結合的研究,已成為這個領域的一個重要方向。

        通過在一個隨機近似空間上進行粗糙集與證據理論的相似性研究,得出結論:證據理論中的信任函數與似然函數可以用粗糙集中下近似與上近似的概率來描述:

        Bel(X)=|R(X)|/|U|,pl(X)=|(X)|/|U|

        文獻[78]也對粗糙集與證據理論之間的關系進行了進一步的研究,認為不同的辨識框架與有著不同下、上近似的各種粗糙近似空間之間有著密切聯系,并可以用這種聯系來解釋辨識框架上的信任函數與似然函數,以加深對這兩個理論的?認識。

        7 結語

        科技的發(fā)展讓人們對于生活、學習、科學研究等各種現代化工具的期望趨于自動化、便捷化、智能化、高速化。而客觀的現實是人們獲得和需要處理的數據不僅數量龐大復雜,而且絕大部分都是不確定的、不完整的或者是不全真的。如何有效地、快速地從中提取出人們需要的信息就成了亟待解決的問題。軟計算理論的出現幫助人們在這一方面取得了巨大的成就,粗糙集的迅速發(fā)展也為軟計算理論的應用與研究提供了強大支持和擴展。隨著對軟計算理論不斷深入的研究和發(fā)展,人們發(fā)現單個的軟計算理論在理論上和應用上都存在著這樣或那樣的不足,而這些理論之間很強的互補特性則可以彌補這些不足。因此,將不同的軟計算理論結合起來研究已成為當前學術界的共識。

        本文主要描述了近年來發(fā)展較快并具有非常新穎特點的粗糙集與軟計算理論中的一些其他理論結合的研究情況,從中可以看到這種結合在人工智能、數據挖掘、知識發(fā)現、屬性約簡、自動控制以及醫(yī)學等方面所取得的顯著成就。此外,詞計算[79]逐漸成為了人工智能領域的研究熱點,詞計算是以詞或文字術語為對象,而不是數值為對象的計算方法,而詞或文字本身就具有不確定意義的特點,這恰好與粗糙集對問題的描述特點很相似,因此,將粗糙集與詞計算結合研究也將是未來粗糙集研究發(fā)展的一個內容。這讓筆者相信,隨著對軟計算理論結合研究的不斷深入,將會看到更為令人欣喜的成功。

        目前軟計算理論相互結合的研究一般只局限于其中某兩個理論之間來展開,而筆者在實際研究中也發(fā)現,即使這樣的兩兩結合也存在很多有待完善和改進的地方,這就需要在以后的研究中能將更多的軟計算理論結合在一起來研究,取長補短、優(yōu)勢互補,提高這一領域的研究水平。

      64797