Karşılıklı bilgi - Mutual information

Venn diyagramı katkı ve ilişkili değişken ile ilişkili çeşitli bilgi önlemler eksiltme ilişkilerini gösteren ve . Her iki dairenin kapsadığı alan ortak entropidir . Soldaki daire (kırmızı ve mor) bireysel entropidir , kırmızı ise koşullu entropidir . Sağdaki daire (mavi ve menekşe), mavi olmak üzere . Menekşe karşılıklı bilgidir .

Olarak olasılık teorisi ve bilgi teorisi , karşılıklı bilgi ( MI iki) rastgele değişkenlerin karşılıklı bir ölçüsüdür bağlı iki değişken arasında. Daha spesifik olarak, diğer rastgele değişkeni gözlemleyerek bir rastgele değişken hakkında elde edilen " bilgi miktarını " ( shannons ( bits ), nats veya hartleys gibi birimlerde ) nicelendirir . Karşılıklı bilgi kavramı, rastgele bir değişkende tutulan beklenen "bilgi miktarını" ölçen bilgi teorisindeki temel bir kavram olan rastgele bir değişkenin entropisi ile yakından bağlantılıdır .

Reel değerli rassal değişkenler ve benzeri lineer bağımlılığı ile sınırlı değil korelasyon katsayısının , MI daha geneldir ve ne kadar farklı belirleyen ortak dağıtım çiftinin marjinal dağılımların üründen olduğunu ve . MI olan beklenen değer bir noktasal karşılıklı bilgi (PMI).

Miktar, Claude Shannon tarafından dönüm noktası niteliğindeki " A Mathematical Theory of Communication " adlı makalesinde tanımlandı ve analiz edildi , ancak buna "karşılıklı bilgi" demedi. Bu terim daha sonra Robert Fano tarafından icat edildi . Karşılıklı Bilgi, bilgi kazancı olarak da bilinir .

Tanım

Boşluk üzerinde değerleri olan bir rasgele değişken çifti olsun . Ortak dağılımları ise ve marjinal dağılımları ise ve ise, karşılıklı bilgi şu şekilde tanımlanır:

nerede olduğunu Kullback-Leibler sapma .

Bildirim, malı göre Kullback-Leibler sapma , yani zaman marjinaller ürünü, ortak dağıtım çakışmaktadır tam olarak ne zaman sıfıra eşittir ve bağımsız (ve dolayısıyla gözlemleyerek hakkında hiçbir şey anlatır ). Genel olarak negatif değildir, gerçekte olmadıklarında, bir çift bağımsız rasgele değişken olarak kodlamanın fiyatının bir ölçüsüdür .

Ayrık dağılımlar için PMF'ler açısından

Ortaklaşa ayrık iki rastgele değişkenin karşılıklı bilgisi ve çift ​​toplamı olarak hesaplanır:

 

 

 

 

( Denk.1 )

burada bir birleşik olasılık kütle fonksiyonu arasında ve ve ve vardır marjinal olasılık kütle fonksiyonları ve sırasıyla.

Sürekli dağıtımlar için PDF'ler açısından

Ortak sürekli rasgele değişkenler söz konusu olduğunda, çift toplam, bir çift ​​katlı integral ile değiştirilir :

 

 

 

 

( Denklem 2 )

nerede şimdi ortak olasılığıdır yoğunluk fonksiyonu ve ve ve marjinal olasılık yoğunluk fonksiyonları ve sırasıyla.

Eğer günlük tabanı 2 kullanıldığında, karşılıklı bilgi birimleridir bit .

Motivasyon

Sezgisel olarak, karşılıklı bilgi, o ve paylaşılan bilgiyi ölçer : Bu değişkenlerden birinin bilinmesinin diğeri hakkındaki belirsizliği ne kadar azalttığını ölçer. Örneğin, eğer ve bağımsızlarsa, o zaman bilmek hakkında herhangi bir bilgi vermez ve bunun tersi, yani karşılıklı bilgileri sıfırdır. Diğer uçta ise, eğer deterministik bir fonksiyon ise ve onun deterministik bir fonksiyonu ise, o zaman tarafından iletilen tüm bilgiler paylaşılır : bilmek değerini belirler ve bunun tersi de geçerlidir. Bunun bir sonucu olarak, bu durumda, karşılıklı bilgi belirsizlik içinde ihtiva edilen ile aynıdır (ya da tek başına, yani) entropi arasında (ya da ). Üstelik bu karşılıklı bilgi, entropisi ve entropisi ile aynıdır . (Bunun çok özel bir durumu, ne zaman ve ne zaman aynı rastgele değişkendir.)

Karşılıklı bilgi olarak ifade doğasında bağımlılık bir ölçüsüdür ortak dağılım içinde ve marjinal dağılımı göreceli ve bağımsızlık varsayımı altında. Karşılıklı bilgi nedenle aşağıdaki anlamda bağımlılığını ölçen: ve ancak eğer ve bağımsız rasgele değişkenlerdir. Bunu bir yönde görmek kolaydır: eğer ve bağımsızsa, o zaman , ve bu nedenle:

Ayrıca, karşılıklı bilgi negatif değildir (yani aşağıya bakınız) ve simetriktir (yani aşağıya bakınız).

Diğer miktarlarla ilişkisi

olumsuzluk

Kullanılması Jensen eşitsizliği bunu gösterebiliriz karşılıklı bilgi tanımına negatif olmayan, yani

Simetri

Koşullu ve ortak entropi ile ilişkisi

Karşılıklı bilgi eşdeğer olarak şu şekilde ifade edilebilir:

burada ve marjinal entropiler , ve vardır koşullu entropi ve bir ortak entropi arasında ve .

İki kümenin birleşimi, farkı ve kesişimi ile ilgili analojiye dikkat edin: bu bağlamda, yukarıda verilen tüm formüller makalenin başında bildirilen Venn şemasından açıkça görülmektedir.

Çıktının girdinin gürültülü bir versiyonu olduğu bir iletişim kanalı açısından , bu ilişkiler şekilde özetlenmiştir:

Bilgi teorik nicelikleri arasındaki ilişkiler

Çünkü negatif değildir, dolayısıyla, . Burada , ortak ayrık rastgele değişkenler durumu için ayrıntılı kesintiyi veriyoruz :

Yukarıdaki diğer kimliklerin ispatları da benzerdir. Genel durumun kanıtı (yalnızca ayrık değil), toplamların yerini alan integrallerle benzerdir.

Entropi eğer Sezgisel, rastgele değişkenin hakkında bir belirsizlik ölçüsü olarak kabul edilir, ardından şeyin bir ölçüsüdür yok değil hakkında söylenecek . Bu, " bilindikten sonra kalan belirsizlik miktarıdır " ve dolayısıyla bu eşitliklerden ikincisinin sağ tarafı "'deki belirsizlik miktarı , eksi bilinenden sonra kalan belirsizlik miktarı " olarak okunabilir. " bilerek ortadan kaldırılan belirsizlik miktarı" ile eşdeğerdir . Bu, her iki değişkeni bilmenin diğeri hakkında sağladığı bilgi miktarı (yani, belirsizlikteki azalma) olarak karşılıklı bilginin sezgisel anlamını doğrular.

Ayrık durumda ve bu nedenle . Böylece , bir değişkenin kendisi hakkında en az diğer herhangi bir değişkenin sağlayabileceği kadar bilgi içerdiği temel ilkesi formüle edilebilir.

Kullback-Leibler ayrışması ile ilişkisi

Birlikte, ayrı veya birlikte sürekli çiftleri için , karşılıklı bilgi Kullback-Leibler ayrışmanın nin ürününden marjinal dağılımlar , ait ortak dağıtımı , yani,

Ayrıca, koşullu kütle veya yoğunluk fonksiyonu olsun. O zaman kimliğimiz var

Ortak ayrık rastgele değişkenlerin kanıtı aşağıdaki gibidir:

Benzer şekilde, bu özdeşlik ortak sürekli rasgele değişkenler için oluşturulabilir.

Burada Kullback-Leibler ayrışmasının yalnızca rastgele değişkenin değerleri üzerinden entegrasyonu içerdiğine ve ifadenin rastgele olduğu için yine de rastgele bir değişkeni gösterdiğine dikkat edin . Bu nedenle, karşılıklı bilgi aynı zamanda şu şekilde anlaşılabilir beklentisi içinde Kullback-Leibler farklılık tek değişkenli dağıtım bölgesinin gelen koşullu dağılımı arasında verilen : dağılımları daha fazla farklı ve daha, ortalama olarak bilgi kazancı .

Karşılıklı bilginin Bayes tahmini

Ortak bir dağılımdan örnekler mevcutsa, bu dağılımın karşılıklı bilgilerini tahmin etmek için bir Bayes yaklaşımı kullanılabilir. Bunu yapan ilk çalışma, karşılıklı bilginin yanı sıra diğer birçok bilgi-teorik özelliğin Bayes tahmininin nasıl yapıldığını da gösteren çalışma olmuştur. Daha sonraki araştırmacılar bu analizi yeniden türetmiş ve genişletmiştir. Kendi başına karşılıklı bilgi tahminine özel olarak uyarlanmış bir önceki makaleye dayanan yakın tarihli bir makaleye bakın. Ayrıca, son zamanlarda sürekli ve çok değişkenli çıktıları hesaba katan bir tahmin yöntemi , 'de önerilmiştir.

Bağımsızlık varsayımları

Karşılıklı bilginin Kullback-Leibler sapma formülasyonu , tamamen çarpanlara ayrılmış dış çarpımla karşılaştırma yapmakla ilgilenilmesine dayanır . Negatif olmayan matris çarpanlara ayırma gibi birçok problemde, daha az aşırı çarpanlara ayırma ile ilgilenilir; özellikle, bazı bilinmeyen değişkenlerde düşük dereceli bir matris yaklaşımıyla karşılaştırmak istenir ; yani, ne dereceye kadar sahip olabileceği

Alternatif olarak, çarpanlara ayırmada ne kadar daha fazla bilginin taşındığını bilmek ilginizi çekebilir . Böyle bir durumda, tam dağılımın matris çarpanlarına ayırma üzerinde taşıdığı fazla bilgi Kullback-Leibler sapması ile verilir.

Karşılıklı bilginin geleneksel tanımı, işlemin için yalnızca bir değere sahip olduğu aşırı durumda kurtarılır .

Varyasyonlar

Çeşitli ihtiyaçlara uyacak şekilde karşılıklı bilgi üzerinde çeşitli varyasyonlar önerilmiştir. Bunlar arasında normalleştirilmiş varyantlar ve ikiden fazla değişkene genellemeler vardır.

Metrik

Birçok uygulama bir metrik , yani nokta çiftleri arasında bir mesafe ölçüsü gerektirir . Miktar

bir metriğin özelliklerini karşılar ( üçgen eşitsizliği , negatif olmama , ayırt edilemezlik ve simetri). Bu mesafe metriği, bilgi varyasyonu olarak da bilinir .

Eğer farklı rasgele değişkenlerdir sonra tüm entropi terimler, negatif olmayan, yani ve bir normalleştirilmiş mesafe tanımlayabilir

Metrik evrensel bir metriktir, çünkü başka herhangi bir mesafe ölçümü yer ve yakınsa, o zaman onları yakın olarak da değerlendirecektir.

Tanımları takmak şunu gösterir:

Bilginin küme-teorik yorumunda ( Koşullu entropi için şekle bakın ), bu, ve arasındaki Jaccard mesafesidir .

Nihayet,

aynı zamanda bir ölçüdür.

Koşullu karşılıklı bilgi

Bazen, üçte birine koşullanmış iki rastgele değişkenin karşılıklı bilgisini ifade etmek yararlıdır.

Ortak ayrık rasgele değişkenler için bu şu şekli alır:

olarak basitleştirilebilir

Ortaklaşa sürekli rasgele değişkenler için bu şu şekli alır:

olarak basitleştirilebilir

Üçüncü bir rasgele değişken üzerinde koşullandırma, karşılıklı bilgiyi artırabilir veya azaltabilir, ancak her zaman doğrudur.

ayrık, ortak dağıtılmış rastgele değişkenler için . Bu sonuç, bilgi teorisindeki diğer eşitsizlikleri kanıtlamak için temel bir yapı taşı olarak kullanılmıştır .

Etkileşim bilgileri

Toplam korelasyon (veya çoklu bilgi) ve ikili toplam korelasyon gibi, ikiden fazla rastgele değişkene karşılıklı bilginin çeşitli genellemeleri önerilmiştir . Çok değişkenli yüksek dereceli karşılıklı bilginin ifadesi ve incelenmesi, görünüşte bağımsız iki çalışmada elde edildi: bu işlevleri "etkileşim bilgisi" olarak adlandıran McGill (1954) ve Hu Kuo Ting (1962). Etkileşim bilgileri bir değişken için aşağıdaki gibi tanımlanır:

ve için

Bazı yazarlar, rastgele değişkenlerin sayısı tek olduğunda işareti değiştiren önceki denklemin sağ tarafındaki terimlerin sırasını tersine çevirir. (Ve bu durumda, tek değişkenli ifade entropinin negatifi olur.)

Çok değişkenli istatistiksel bağımsızlık

Çok değişkenli karşılıklı bilgi işlevleri, eğer ve sadece eğer , isteğe bağlı çok sayıda değişken için olduğunu belirten ikili bağımsızlık durumunu genelleştirir . n değişken, ancak ve ancak karşılıklı bilgi fonksiyonları (teorem 2) ile ortadan kalkarsa karşılıklı olarak bağımsızdır . Bu anlamda, rafine bir istatistiksel bağımsızlık kriteri olarak kullanılabilir.

Uygulamalar

3 değişken için Brenner ve ark. çok değişkenli karşılıklı bilgiyi sinirsel kodlamaya uyguladı ve olumsuzluğunu "sinerji" olarak adlandırdı ve Watkinson ve ark. bunu genetik ifadeye uyguladı. Keyfi k değişkenler için Tapia ve ark. gen ifadesine uygulanan çok değişkenli karşılıklı bilgi). Sıfır, pozitif veya negatif olabilir. Pozitiflik, ikili bağıntıları genelleştiren ilişkilere karşılık gelir, hiçlik rafine bir bağımsızlık kavramına karşılık gelir ve olumsuzluk yüksek boyutlu "ortaya çıkan" ilişkileri ve kümelenmiş veri noktalarını tespit eder).

Ortak dağılım ve diğer hedef değişkenler arasındaki karşılıklı bilgiyi maksimize eden bir yüksek boyutlu genelleme şeması, öznitelik seçiminde faydalı bulunmuştur .

Karşılıklı bilgi, iki sinyal arasındaki benzerliğin bir ölçüsü olarak sinyal işleme alanında da kullanılır . Örneğin, FMI metriği, kaynaşmış görüntünün kaynak görüntüler hakkında içerdiği bilgi miktarını ölçmek için karşılıklı bilgileri kullanan bir görüntü birleştirme performans ölçüsüdür. Matlab bu metrik için kod bulunabilir. Tüm çok değişkenli karşılıklı bilgileri, koşullu karşılıklı bilgileri, ortak entropileri, toplam korelasyonları, n değişkenlik bir veri kümesindeki bilgi mesafesini hesaplamak için bir python paketi mevcuttur.

Yönlendirilmiş bilgi

Yönlendirilmiş bilgiler , önlemler işleminden bilgi akışı miktarı için , vektör ifade eder ve O anlamına gelir . Yönlendirilmiş bilgi terimi James Massey tarafından ortaya atılmış ve şu şekilde tanımlanmıştır:

.

Yönlendirilmiş bilgilerin karşılıklı bilgi haline geldiğini unutmayın . Yönlendirilmiş bilgi, geri beslemeli kanalın kapasitesi gibi nedenselliğin önemli rol oynadığı problemlerde birçok uygulamaya sahiptir .

Normalleştirilmiş varyantlar

Karşılıklı bilginin normalleştirilmiş varyantları, kısıtlama , belirsizlik katsayısı veya yeterlilik katsayıları tarafından sağlanır :

İki katsayı [0, 1] arasında değişen bir değere sahiptir, ancak mutlaka eşit değildir. Bazı durumlarda, aşağıdaki fazlalık ölçüsü gibi simetrik bir ölçü istenebilir :

değişkenler bağımsız olduğunda minimum sıfıra ve maksimum değere ulaşan

bir değişken diğerinin bilgisi ile tamamen gereksiz hale geldiğinde. Ayrıca bkz. Artıklık (bilgi teorisi) .

Bir başka simetrik ölçü, simetrik belirsizliktir ( Witten & Frank 2005 ).

bu , iki belirsizlik katsayısının harmonik ortalamasını temsil eder .

Karşılıklı bilgiyi toplam korelasyon veya ikili toplam korelasyonun özel bir durumu olarak düşünürsek , normalize edilmiş versiyon sırasıyla,

ve

Toplam belirsizliğe karşı başka bir değişkene dayalı bir değişkenin bilgi miktarını ölçen Bilgi Kalite Oranı (IQR) olarak da bilinen bu normalleştirilmiş sürüm :

Karşılıklı bilgiyi ilk olarak kovaryansa bir analog olarak düşünmekten türetilen bir normalleştirme vardır (böylece Shannon entropisi varyansa benzerdir ). Daha sonra normalleştirilmiş karşılıklı bilgi, Pearson korelasyon katsayısına benzer şekilde hesaplanır ,

Ağırlıklı varyantlar

Karşılıklı bilginin geleneksel formülasyonunda,

tarafından belirtilen her olay veya nesne , karşılık gelen olasılıkla ağırlıklandırılır . Bu, tüm nesnelerin veya olayların meydana gelme olasılıkları dışında eşdeğer olduğunu varsayar . Bununla birlikte, bazı uygulamalarda, belirli nesnelerin veya olayların diğerlerinden daha önemli olduğu veya belirli çağrışım kalıplarının anlamsal olarak diğerlerinden daha önemli olduğu durumlar olabilir.

Örneğin, deterministik eşleme, deterministik eşlemeden daha güçlü olarak görülebilir , ancak bu ilişkiler aynı karşılıklı bilgiyi verir. Bunun nedeni, karşılıklı bilginin, değişken değerlerdeki herhangi bir doğal sıralamaya hiç duyarlı olmamasıdır ( Cronbach 1954 , Coombs, Dawes & Tversky 1970 , Lockhead 1970 ) ve bu nedenle , arasındaki ilişkisel eşleme biçimine hiç duyarlı değildir . ilişkili değişkenler. Tüm değişken değerler üzerinde anlaşma gösteren önceki ilişkinin sonraki ilişkiden daha güçlü olarak değerlendirilmesi istenirse, aşağıdaki ağırlıklı karşılıklı bilgiyi kullanmak mümkündür ( Guiasu 1977 ).

bu , her bir değişken değerinin birlikte ortaya çıkma olasılığına ağırlık verir, . Bu, belirli olasılıkların diğerlerinden daha fazla veya daha az önem taşıyabilmesine ve dolayısıyla ilgili bütünsel veya Prägnanz faktörlerinin nicelleştirilmesine izin verir . Yukarıdaki örnekte, daha büyük nispi ağırlıklar kullanılarak , ve daha değerlendirmek etkiye sahip olacaktır bilgi verici ilişkisi için ilişki için daha model algılaması, bazı durumlarda tercih edilebilir, ve benzeri yer alır. Bu ağırlıklı karşılıklı bilgi, bazı girdiler için negatif değerler aldığı bilinen bir ağırlıklı KL-Iraksama biçimidir ve ağırlıklı karşılıklı bilgilerin de negatif değerler aldığı örnekler vardır.

Düzeltilmiş karşılıklı bilgi

Bir olasılık dağılımı, bir kümenin bir bölümü olarak görülebilir . O zaman şu sorulabilir: Bir küme rastgele bölünseydi, olasılıkların dağılımı ne olurdu? Karşılıklı bilginin beklenti değeri ne olurdu? Ayarlanmış, karşılıklı bilgi ya da AMI iki dağılımları özdeş olduğunda AMI sıfır ila iki farklı dağılımları rastlantısal ve biridir ki, MI beklenti değeri çıkarır. AMI, bir kümenin iki farklı bölümünün ayarlanmış Rand indeksine benzer şekilde tanımlanır .

Mutlak karşılıklı bilgi

Kolmogorov karmaşıklığı fikirlerini kullanarak, herhangi bir olasılık dağılımından bağımsız olarak iki dizinin karşılıklı bilgisi düşünülebilir:

Bu miktarın bir logaritmik faktöre ( ) kadar simetrik olduğunu belirlemek için Kolmogorov karmaşıklığı için zincir kuralı gerekir ( Li & Vitányi 1997 ). Bu miktarın sıkıştırma yoluyla yaklaşıkları, diziler hakkında herhangi bir alan bilgisine sahip olmadan dizilerin hiyerarşik bir kümelenmesini gerçekleştirmek için bir mesafe ölçüsü tanımlamak için kullanılabilir ( Cilibrasi & Vitányi 2005 ).

Doğrusal korelasyon

Ürün momenti korelasyon katsayısı gibi korelasyon katsayılarından farklı olarak , karşılıklı bilgi, korelasyon katsayısı ölçüleri olarak yalnızca doğrusal bağımlılık değil, tüm bağımlılık (doğrusal ve doğrusal olmayan) hakkında bilgi içerir. Bununla birlikte, ortak dağılımın ve iki değişkenli normal dağılım olduğu dar durumda (özellikle her iki marjinal dağılımın normal dağıldığını ima eder), korelasyon katsayısı ile arasında kesin bir ilişki vardır ( Gel'fand & Yaglom 1957 ).

Yukarıdaki denklem iki değişkenli bir Gauss için aşağıdaki gibi türetilebilir:

Öyleyse,

Ayrık veriler için

Zaman ve durumları ayrı bir sayıda olması ile sınırlıdır, gözlem verileri özetlenmiştir durum tablo satır değişkeni, (ya da ) ve sütun değişken (veya ). Karşılıklı bilgi, satır ve sütun değişkenleri arasındaki ilişki veya korelasyon ölçülerinden biridir . Diğer ilişki ölçütleri, Pearson'ın ki-kare test istatistiklerini, G-test istatistiklerini, vb. içerir. Aslında, karşılıklı bilgi, G-test istatistiklerinin , örneklem büyüklüğünün nerede olduğu ile bölünmesine eşittir .

Uygulamalar

Birçok uygulamada, genellikle koşullu entropiyi en aza indirmeye eşdeğer olan karşılıklı bilgiyi en üst düzeye çıkarmak (böylece artan bağımlılıklar) istenir . Örnekler şunları içerir:

  • Gelen arama motoru teknolojisi , deyimler ve bağlamlar arasında karşılıklı bilgi için bir özellik olarak kullanılır kümeleme k-ortalama anlamsal kümeleri (kavramlar) keşfetmek için. Örneğin, bir bigramın karşılıklı bilgisi şu şekilde hesaplanabilir:

burada xy bigramının korpusta görünme sayısı, x unigramının korpusta görünme sayısı, B toplam bigram sayısı ve U toplam unigram sayısıdır.
  • Olarak telekomünikasyon , kanal kapasitesi tüm giriş dağılımı üzerinde maksimum karşılıklı bilgi, eşittir.
  • Gizli Markov modelleri için ayırt edici eğitim prosedürleri , maksimum karşılıklı bilgi (MMI) kriterine dayalı olarak önerilmiştir .
  • Çoklu dizi hizalamasından RNA ikincil yapı tahmini .
  • İkili mevcut ve fonksiyonel olarak bağlantılı genlerin kaybolmasından filogenetik profilleme tahmini .
  • Makine öğrenmesinde öznitelik seçimi ve öznitelik dönüşümleri için karşılıklı bilgi bir ölçüt olarak kullanılmıştır . Minimum fazlalık özellik seçimi gibi değişkenlerin hem alaka düzeyini hem de fazlalığını karakterize etmek için kullanılabilir .
  • Karşılıklı bilgi, bir veri kümesinin iki farklı kümelenmesinin benzerliğini belirlemede kullanılır . Bu nedenle, geleneksel Rand endeksine göre bazı avantajlar sağlar .
  • Kelimelerin Karşılıklı bilgiler genelde hesaplanması için bir önem fonksiyonu olarak kullanılır eşdizimlilik içinde korpus dilbilim . Bu, hiçbir kelime örneğinin iki farklı kelimenin bir örneği olmaması gibi ek karmaşıklığa sahiptir; bunun yerine, 2 kelimenin bitişik veya yakın olduğu durumlar sayılır; Bu, hesaplamayı biraz karmaşıklaştırır, çünkü bir kelimenin diğerinin kelimelerinin içinde meydana gelmesi beklenen olasılık , ile artar .
  • Tıbbi görüntülemede görüntü kaydı için karşılıklı bilgi kullanılır . Bir referans görüntü (örneğin, bir beyin taraması) ve referans görüntü ile aynı koordinat sistemine yerleştirilmesi gereken ikinci bir görüntü verildiğinde, bu görüntü, referans görüntü ile arasındaki karşılıklı bilgi maksimize edilene kadar deforme edilir.
  • Algılama faz senkronizasyonu olarak zaman serisi analizi
  • Gelen Infomax Infomax dahil tabanlı-nöral net ve otomatik öğrenme için yöntem bağımsız bileşen analizi algoritması
  • Gecikme gömme teoremindeki ortalama karşılıklı bilgi , gömme gecikme parametresini belirlemek için kullanılır .
  • İfade mikrodizi verilerinde genler arasındaki karşılıklı bilgi , gen ağlarının yeniden yapılandırılması için ARACNE algoritması tarafından kullanılır .
  • Gelen istatistiksel mekanik , Loschmidt paradoksu karşılıklı bilgi açısından ifade edilebilir. Loschmidt, zamanın tersine çevrilmesi simetrisinden yoksun bir fizik kanununu (örneğin termodinamiğin ikinci kanunu ) sadece bu simetriye sahip fizik kanunlarından belirlemenin imkansız olması gerektiğine dikkat çekti . Boltzmann'ın H-teoreminin , bir gazdaki parçacıkların hızlarının kalıcı olarak ilişkisiz olduğu varsayımını yaptığına ve bu da H-teoreminin doğasında bulunan zaman simetrisini ortadan kaldırdığına dikkat çekti . Bir sistem faz uzayında bir olasılık yoğunluğu ile tanımlanırsa , o zaman Liouville teoremi , dağılımın ortak bilgisinin (ortak entropinin negatifi) zaman içinde sabit kaldığını ima eder. Ortak bilgi, her parçacık koordinatı için karşılıklı bilgi artı tüm marjinal bilgilerin (marjinal entropilerin negatifi) toplamına eşittir. Boltzmann'ın varsayımı, termodinamik entropiyi (Boltzmann sabitine bölünen) veren entropinin hesaplanmasında karşılıklı bilgiyi göz ardı etmek anlamına gelir.
  • Karşılıklı bilgi, GlobalMIT araç setinde örneklendiği gibi rastgele değişkenler arasındaki nedensel ilişkiyi açıkladığı düşünülen Bayes ağlarının / dinamik Bayes ağlarının yapısını öğrenmek için kullanılır : Karşılıklı Bilgi Testi kriteri ile global olarak optimal dinamik Bayes ağının öğrenilmesi.
  • Karşılıklı bilgi, Gibbs örnekleme algoritmasında güncelleme prosedürü sırasında iletilen bilgiyi ölçmek için kullanılır .
  • Karar ağacı öğrenmede popüler maliyet fonksiyonu .
  • Karşılıklı bilgi, büyük ölçekli ortamların Galaksi Hayvanat Bahçesindeki galaksi özellikleri üzerindeki etkisini test etmek için kozmolojide kullanılır .
  • Karşılıklı bilgiler Güneş Fiziğinde güneş diferansiyel dönüş profilini, güneş lekeleri için bir seyahat zamanı sapma haritası ve sessiz-Güneş ölçümlerinden bir zaman-mesafe diyagramını türetmek için kullanıldı.
  • Etiketsiz veri verilmeyen sinir ağı sınıflandırıcılarını ve görüntü bölütleyicilerini otomatik olarak eğitmek için Değişmez Bilgi Kümelemesinde kullanılır.

Ayrıca bakınız

Notlar

  1. ^ Kapak, Thomas M.; Thomas, Sevinç A. (2005). Bilgi teorisinin unsurları (PDF) . John Wiley & Sons, Ltd. s. 13–55. ISBN'si 9780471748823.
  2. ^ Kreer, JG (1957). "Bir terminoloji sorusu". Bilgi Teorisi Üzerine IRE İşlemleri . 3 (3): 208. doi : 10.1109/TIT.1957.1057418 .
  3. ^ a b c Kapak, TM; Thomas, JA (1991). Bilgi Teorisinin Elemanları (Wiley ed.). ISBN'si 978-0-471-24195-9.
  4. ^ Wolpert, DH; Kurt, DR (1995). "Sonlu bir örnek kümesinden olasılık dağılımlarının tahmin fonksiyonları". Fiziksel İnceleme E . 52 (6): 6841–6854. Bibcode : 1995PhRvE..52.6841W . CiteSeerX  10.1.1.55.7122 . doi : 10.1103/PhysRevE.52.6841 . PMID  9964199 . S2CID  9795679 .
  5. ^ Hutter, M. (2001). "Karşılıklı Bilgilerin Dağılımı". Sinirsel Bilgi İşleme Sistemlerindeki Gelişmeler 2001 .
  6. ^ Okçu, E.; Park, IM; Yastık, J. (2013). "Ayrık Verilerden Karşılıklı Bilgi için Bayes ve Yarı Bayes Tahmin Edicileri". entropi . 15 (12): 1738-1755. Bibcode : 2013Entrp..15.1738A . CiteSeerX  10.1.1.294.4690 . doi : 10.3390/e15051738 .
  7. ^ Wolpert, DH; DeDeo, S. (2013). "Boyutu Bilinmeyen Uzaylar Üzerinde Tanımlanan Dağılımların Tahmin Fonksiyonları". entropi . 15 (12): 4668-4699. arXiv : 1311.4548 . Bibcode : 2013Entrp..15.4668W . doi : 10.3390/e15114668 . S2CID  2737117 .
  8. ^ Tomasz Jetka; Karol Nienaltowski; Tomasz Winarski; Slawomir Blonski; Michal Komorowski (2019), "Çok değişkenli tek hücreli sinyal yanıtlarının bilgi teorik analizi", PLOS Hesaplamalı Biyoloji , 15 (7): e1007132, arXiv : 1808.05581 , Bibcode : 2019PLSCB..15E7132J , doi : 10.1371/journal.pcbi. 1007132 , PMC  6655862 , PMID  31299056
  9. ^ Kraskov, İskender; Stögbauer, Harald; Andrzejak, Ralph G.; Grassberger, Peter (2003). "Karşılıklı Bilgiye Dayalı Hiyerarşik Kümeleme". arXiv : q-bio/0311039 . Bibcode : 2003q.bio....11039K . Alıntı günlüğü gerektirir |journal=( yardım )
  10. ^ McGill, W. (1954). "Çok değişkenli bilgi aktarımı". Psikometrik . 19 (1): 97–116. doi : 10.1007/BF02289159 . S2CID  126431489 .
  11. ^ a b Hu, KT (1962). "Bilgi Miktarı Üzerine". Teori Probab. Appl . 7 (4): 439–447. doi : 10.1137/1107041 .
  12. ^ a b Baudot, P.; Tapia, M.; Bennequin, D.; Goaillard, JM (2019). "Topolojik Bilgi Veri Analizi". entropi . 21 (9). 869. arXiv : 1907.04242 . Bibcode : 2019Entrp..21..869B . doi : 10.3390/e21090869 . S2CID  195848308 .
  13. ^ Brenner, N.; Güçlü, S.; Koberle, R.; Bialek, W. (2000). "Bir Sinir Kodunda Sinerji". Sinirsel Hesaplama . 12 (7): 1531-1552. doi : 10.1162/089976600300015259 . PMID  10935917 . S2CID  600528 .
  14. ^ Watkinson, J.; Liang, K.; Wang, X.; Zheng, T.; Anastassiou, D. (2009). "Üç Yönlü Karşılıklı Bilgiyi Kullanarak İfade Verilerinden Düzenleyici Gen Etkileşimlerinin Çıkarımı" . Çağrı. Sist. Biol. Anne. NY Acad. Sci . 1158 (1): 302–313. Bibcode : 2009NYASA1158..302W . doi : 10.1111/j.1749-6632.2008.03757.x . PMID  19348651 . S2CID  8846229 .
  15. ^ a b Tapia, M.; Baudot, P.; Formizano-Treziny, C.; Dufour, M.; Goaillard, JM (2018). "Nörotransmitter kimliği ve elektrofizyolojik fenotip, orta beyin dopaminerjik nöronlarda genetik olarak birleştirilir" . bilim Cum . 8 (1): 13637. Bibcode : 2018NatSR...813637T . doi : 10.1038/s41598-018-31765-z . PMC  6134142 . PMID  30206240 .
  16. ^ Christopher D. Manning; Prabhakar Raghavan; Hinrich Schütze (2008). Bilgi Erişimine Giriş . Cambridge Üniversitesi Yayınları . ISBN'si 978-0-521-86571-5.
  17. ^ Haghighat, MBA; Aghagolzadeh, A.; Seyedarabi, H. (2011). "Görüntü özelliklerinin karşılıklı bilgisine dayanan referans olmayan bir görüntü füzyon metriği". Bilgisayar ve Elektrik Mühendisliği . 37 (5): 744–756. doi : 10.1016/j.compeleceng.2011.07.012 .
  18. ^ "Referans olmayan görüntü füzyonu için Özellik Karşılıklı Bilgi (FMI) metriği - Dosya Değişimi - MATLAB Central" . www.mathworks.com . 4 Nisan 2018 alındı .
  19. ^ "InfoTopo: Topolojik Bilgi Veri Analizi. Derin istatistiksel denetimsiz ve denetimli öğrenme - Dosya Değişimi - Github" . github.com/pierrebaudot/infotopopy/ . 26 Eylül 2020 alındı .
  20. ^ Massey, James (1990). "Nedensellik, Geri Bildirim ve Yönlendirilmiş Bilgi". Proc. 1990 Uluslararası semptom. Bilgi üzerine. NS. ve Uygulamaları, Waikiki, Hawaii, 27-30 Kasım 1990 . CiteSeerX  10.1.1.36.5688 .
  21. ^ Permuter, Haim Henry; Weissman, Tsachy; Goldsmith, Andrea J. (Şubat 2009). "Zamanda Değişmeyen Deterministik Geri Beslemeli Sonlu Durum Kanalları". Bilgi Teorisi Üzerine IEEE İşlemleri . 55 (2): 644-662. arXiv : cs/0608070 . doi : 10.1109/TIT.2008.2009849 . S2CID  13178 .
  22. ^ Coombs, Dawes & Tversky 1970 .
  23. ^ a b Basın, WH; Teukolsky, SA; Vetterling, WT; Flannery, BP (2007). "Bölüm 14.7.3. Koşullu Entropi ve Karşılıklı Bilgi" . Sayısal Tarifler: Bilimsel Hesaplama Sanatı (3. baskı). New York: Cambridge University Press. ISBN'si 978-0-521-88068-8.
  24. ^ Beyaz, Jim; Steingold, Sam; Fournelle, Connie. Grup Algılama Algoritmaları için Performans Metrikleri (PDF) . Arayüz 2004.
  25. ^ Wijaya, Dedy Rahman; Sarno, Riyanarto; Zulaika, Enny (2017). "Ana dalgacık seçimi için yeni bir metrik olarak Bilgi Kalite Oranı". Kemometri ve Akıllı Laboratuvar Sistemleri . 160 : 59-71. doi : 10.1016/j.chemolab.2016.11.012 .
  26. ^ Strehl, İskender; Ghosh, Joydeep (2003). "Küme Toplulukları - Birden Çok Bölümü Birleştirmek için Bilgi Yeniden Kullanım Çerçevesi" (PDF) . Makine Öğrenimi Araştırmaları Dergisi . 3 : 583-617. doi : 10.1162/153244303321897735 .
  27. ^ Kvålseth, TO (1991). "Göreceli yararlı bilgi ölçüsü: bazı yorumlar". Bilgi Bilimleri . 56 (1): 35–38. doi : 10.1016/0020-0255(91)90022-m .
  28. ^ Pocock, A. (2012). Ortak Olabilirlik Yoluyla Özellik Seçimi (PDF) (Tez).
  29. ^ a b Karşılıklı Bilgi İstatistiklerini Kullanarak Doğal Bir Dili Ayrıştırmak David M. Magerman ve Mitchell P. Marcus
  30. ^ Hugh Everett Evrensel Dalga Fonksiyonu Teorisi , Tez, Princeton Üniversitesi, (1956, 1973), s. 1-140 (sayfa 30)
  31. ^ Everett, Hugh (1957). "Kuantum Mekaniğinin Göreli Durum Formülasyonu" . Modern Fizik İncelemeleri . 29 (3): 454-462. Bibcode : 1957RvMP...29..454E . doi : 10.1103/revmodphys.29.454 . Arşivlenmiş orijinal 2011-10-27 tarihinde . 2012-07-16 alındı .
  32. ^ GlobalMIT , Google Code'da
  33. ^ Lee, Se Yoon (2021). "Gibbs örnekleyici ve koordinat yükseliş varyasyonel çıkarımı: Bir küme-teorik inceleme". İstatistikte İletişim - Teori ve Yöntemler : 1-21. arXiv : 2008.1006 . doi : 10.1080/03610926.2021.1921214 .
  34. ^ Tuşlar, Dustin; Kholikov, Şukur; Pevtsov, Alexei A. (Şubat 2015). "Zaman Mesafesi Heliosismolojisinde Karşılıklı Bilgilendirme Yöntemlerinin Uygulanması". Güneş Fiziği . 290 (3): 659-671. arXiv : 1501.05597 . Bibcode : 2015SoPh..290..659K . doi : 10.1007/s11207-015-0650-y . S2CID  118472242 .
  35. ^ Xu Ji, Joao Henriques ve Andrea Vedaldi tarafından Denetimsiz Görüntü Sınıflandırması ve Segmentasyonu için Değişmez Bilgi Kümelenmesi

Referanslar