Sistem kazası - System accident

Bir sistem kazası (veya normal kaza ), karmaşık bir sistemdeki "çoklu arızaların beklenmedik bir etkileşimidir" . Bu karmaşıklık, teknolojiden veya insan organizasyonlarından kaynaklanabilir ve genellikle her ikisi de olur. Bir sistem kazasını sonradan görmek kolay olabilir, ancak öngörüde son derece zordur çünkü hepsini ciddiye almak için çok fazla eylem yolu vardır. Charles Perrow bu fikirleri ilk olarak 1980'lerin ortasında geliştirdi. William Langewiesche 1990'ların sonlarında şöyle yazmıştı: "En riskli teknolojilerin bazılarının kontrolü ve işletimi o kadar karmaşık kuruluşlar gerektiriyor ki, ciddi başarısızlıkların meydana gelmesi neredeyse garantidir."

Güvenlik sistemlerinin kendileri bazen bu tür kazalara yol açan ek karmaşıklıktır.

Bir kuruluş, birçok çalışanı, uzmanlığı, yedekleme sistemleri, çift kontrolü, ayrıntılı kılavuzları ve resmi iletişimiyle boyut olarak belirli bir noktayı geçtikten sonra, çalışanlar çok kolay bir şekilde protokole, alışkanlığa ve "haklı olmaya" başvurabilir. Tanıdık olmayan bir dilde karmaşık bir filmi izlemeye çalışmak gibi, neler olup bittiğine dair anlatı dizisi kaybolabilir. Ve gerçek dünyadaki kazaların neredeyse her zaman birden fazla nedeni olduğundan, grup düşüncesi gibi başka olaylar da aynı anda meydana gelebilir. Özellikle, bir şeye dokunan son kişiyi suçlamak, işlevsiz bir organizasyonun işaretidir.

2012'de Charles Perrow şöyle yazdı: "Normal bir kaza [sistem kazası], herkesin güvenli oynamak için çok çabaladığı, ancak iki veya daha fazla arızanın beklenmedik etkileşiminin (etkileşimli karmaşıklık nedeniyle) bir dizi arızaya neden olduğu (sıkı bağlantı nedeniyle) . " Charles Perrow , mevcut teknoloji düzeyi göz önüne alındığında, bu tür kazaların büyük olasılıkla birkaç yıl veya on yıl içinde gerçekleştiğini vurgulamak için normal kaza terimini kullanıyor .

James T. Reason, bu yaklaşımı insan güvenilirliği ve artık havacılık güvenliği ve sağlık hizmetlerinde yaygın olarak kabul gören İsviçre peynir modeli ile genişletti .

Bir hayvanın kendi kuyruğunu yiyen bir yönü vardır, çünkü onu tam olarak doğru yapmak için daha fazla formalite ve çaba, durumu daha da kötüleştirebilir. Örneğin, değişen koşullara uyum sağlamada daha fazla organizasyonel rol üstlendikçe, daha fazla çalışan bu tür değişiklikleri, "sorunları" ve beklenmedik koşulları bildirmeyi muhtemelen geciktirecektir.

Bu kazalar genellikle küçük yargı hataları, teknolojideki kusurlar ve önemsiz hasarların bir araya gelerek acil bir felaket oluşturması gibi Rube Goldberg cihazlarına benziyor .

William Langewiesche, "çalışılamayan komuta zincirleri, öğrenilemez eğitim programları, okunamayan kılavuzlar ve düzenlemeler, kontroller ve kontroller kurgusunu içeren tam bir hayali gerçeklik" hakkında yazıyor.

Karşıt bir fikir, yüksek güvenilirliğe sahip organizasyondur .

Scott Sagan

Scott Sagan'ın , özellikle nükleer silahlarla ilgili olmak üzere karmaşık sistemlerin güvenilirliğini tartışan çok sayıda yayını vardır. Güvenliğin Sınırları (1993), Soğuk Savaş sırasında kazara bir nükleer savaşla sonuçlanabilecek yakın aramaların kapsamlı bir incelemesini sağladı .

Olası sistem kazaları

Apollo 13 uzay uçuşu, 1970

Apollo 13 İnceleme Kurulu:


"[Giriş].. Kazanın istatistiksel anlamda bir tesadüfi arızanın sonucu olmadığı, daha ziyade alışılmadık bir hata kombinasyonundan kaynaklandığı, biraz kusurlu ve affetmeyen bir tasarımla birleştiği bulundu [Vurgu eklendi]. .

" g. Uçuştan önce bu prosedürleri gözden geçirirken, NASA, ER ve Beech yetkilileri aşırı ısınmadan kaynaklanan hasar olasılığını fark etmediler. Bu görevlilerin çoğu, ısıtıcının uzatılmış çalışmasının farkında değildi. Her durumda, yeterli termostatik anahtarlar tankı koruması beklenebilirdi. "

Three Mile Adası , 1979

Charles Perrow:

"Nükleer santrallerdeki ve diğer yüksek riskli, karmaşık ve son derece birbirine bağımlı operatör-makine sistemlerindeki diğer kazalara benziyordu; kazaların hiçbiri yönetimin veya operatörün beceriksizliğinden veya kötü hükümet düzenlemelerinden kaynaklanmadı, ancak bu özellikler mevcuttu ve beklenmeliydi. Kazanın normal olduğunu, çünkü karmaşık sistemlerde planlamayla önlenemeyecek ve operatörlerin hemen anlayamayacakları birden çok hata olması kaçınılmaz olduğunu iddia ettim. "

ValuJet (AirTran) 592 , Everglades, 1996

William Langewiesche:

"Devasa MD-80 bakım el kitabında ... Seçeneklerini özenle takip ederek, tamirci el kitabının farklı bir bölümüne giden yolu bulabilir ve ... [oksijen jeneratörlerinin] imha edilmesi gerektiğini öğrenmiş olabilir. yerel yasal düzenlemelere uygun olarak ve yetkili prosedürleri kullanarak. "

Yani, yazıldığı şekliyle çoğu güvenlik prosedürü bir anlamda "doğrudur", ancak ne yararlı ne de bilgilendirici.

Brian Stimpson:

Adım 2. Haftalarca bir parça rafında saklanan işaretsiz karton kutular, SabreTech'in nakliye ve alım departmanına alındı ​​ve ValuJet mülküne tahsis edilen bir alanda yere bırakıldı.

Adım 3. Potansiyel bir SabreTech müşterisi olan Continental Airlines, tesiste bir teftiş planlıyordu, bu nedenle bir SabreTech nakliye memuruna işyerini temizlemesi talimatı verildi. Oksijen jeneratörlerini Atlanta'daki ValuJet genel merkezine göndermeye karar verdi ve kutuları "uçak parçaları" olarak etiketledi. ValuJet malzemesini daha önce resmi onay olmadan Atlanta'ya göndermişti. Dahası, yeşil etiketleri "hizmet verilemez" veya "hizmet dışı" olarak gösterecek şekilde yanlış anladı ve jeneratörlerin boş olduğu sonucuna vardı.

Adım 4. Nakliye görevlisi, beş kutunun ön kargo bölmesi artı iki büyük ana lastik ve daha küçük bir burun lastiği için bir yük oluşturdu. Bir iş arkadaşına "oksijen kutuları - boş" yazan bir nakliye bileti hazırlaması talimatını verdi. İş arkadaşı, tırnak içinde "Oxy Bidonları" ve ardından "Boş" yazdı. Lastikler de listelendi.

Adım 5. Bir veya iki gün sonra kutular, 592 sefer sayılı uçuşta kabul edilmek üzere ValuJet rampa acentesine teslim edildi. Lastikleri ve oksijen tenekelerini listeleyen nakliye bileti dikkatini çekmiş olmalıydı ama çekmedi. ValuJet tehlikeli maddeleri taşımak için kayıtlı olmadığı için kutular daha sonra federal düzenlemelere aykırı olarak yüklendi. Rampa acentesinin zihninde, SabreTech işçilerinin ona tehlikeli kargo göndermesi ihtimalinin düşünülemez olması mümkündür.

2008 finans kurumu erimeye yakın

Ekonomist Alan Blinder, 2014 tarihli bir monografide, karmaşık finansal araçların potansiyel yatırımcıların fiyatın makul olup olmadığına karar vermesini zorlaştırdığını belirtti. "Ders # 6: Aşırı karmaşıklık sadece rekabete aykırı değildir, tehlikelidir" başlıklı bir bölümde , "Ancak daha büyük tehlike opaklıktan gelebilir. Yatırımcılar menkul kıymetlerin içinde bulunan riskleri anlamadıklarında satın al (örnekler: bir CDO-Karenin ara dilimi  ; sentetik bir CDO üzerinde bir CDS , ...), büyük hatalar yapılabilir - özellikle derecelendirme kuruluşları size bunların üçlü A, zekice, yeterince güvenli olduğunu söylerse Büyükanne. Kaza geldiğinde, kayıplar yatırımcıların hayal edebileceğinden çok daha büyük olabilir. Bu menkul kıymetlerin gerçekte ne kadar değerli olduğunu kimse bilmediği için piyasalar kuruyabilir. Panik başlayabilir. Dolayısıyla karmaşıklık başlı başına bir risk kaynağıdır. "

MV Sewol'un batması

Kavramın gelecekteki olası uygulamaları

1980'lerden bu yana uçak güvenliğinde beş kat artış, ancak uçuş sistemleri bazen kendi başlarına beklenmedik "modlara" geçiş yapıyor

"The Human Factor" başlıklı bir makalede William Langewiesche, Air France Flight 447'nin orta Atlantik üzerinde 2009 kazasından bahsediyor . Otomatik kokpit sistemlerine geçişin başladığı 1980'lerden beri güvenliğin beş kat arttığına dikkat çekiyor. Langwiesche, "Kokpitin mahremiyetinde ve halkın görüşünün ötesinde, pilotlar sistem yöneticileri olarak sıradan rollere düşürüldü." Windsor Düşesi'ne atfedilen, birinin asla çok zengin veya çok zayıf olamayacağına dair mizahi ifadeyi alan mühendis Earl Wiener'den alıntı yapıyor ve "dijital bir uçuş rehberlik sistemine ne koyduğunuza çok dikkat edin" diyor. Wiener, otomasyonun etkisinin tipik olarak hafif olduğunda iş yükünü azaltmak, ancak ağır olduğunda artırmak olduğunu söylüyor.

Boeing Mühendisi Delmar Fadden, kapasiteler uçuş yönetim sistemlerine eklendiğinde, sertifikasyon gereksinimleri nedeniyle kaldırılmasının imkansız derecede pahalı hale geldiğini söyledi. Ancak kullanılmazsa, bir anlamda görünmeyen derinliklerde pusuda kalabilir.

Langewiesche, genellikle pilotun tam olarak anlamadığı veya sistemin kendi kendine geçtiği sistem modlarıyla ilgili "otomasyon sürprizleri" hakkında yazan endüstri mühendisi Nadine Sarter'dan alıntı yapıyor. Aslında, bugün kokpitlerde sorulan en yaygın sorulardan biri, "Şimdi ne yapıyor?" Buna yanıt olarak Langewiesche, güvenlikteki beş kat artışa işaret ediyor ve "Hiç kimse rasyonel olarak geçmişin ihtişamına geri dönüşü savunamaz" diye yazıyor.

Güvenlik kurallarının bazen değiştirildiği teori ve pratik arasında daha sağlıklı etkileşim?

Nancy Leveson'un Safety Science dergisinde Nisan 2004'te
yazdığı "Daha Güvenli Mühendislik İçin Yeni Bir Kaza Modeli" makalesinden : "Bununla birlikte, talimatlar ve yazılı prosedürler neredeyse hiçbir zaman tam olarak izlenmez, çünkü operatörler daha verimli ve üretken olmak ve bununla başa çıkmak için çabalar. zaman baskısı ... nükleer santraller gibi yüksek derecede kısıtlı ve yüksek riskli ortamlarda bile, talimatların değiştirilmesi tekrar tekrar bulunur ve kuralların ihlali, operatörlerin altında yatan gerçek iş yükü ve zamanlama kısıtlamaları göz önüne alındığında oldukça rasyonel görünmektedir. Bu durumlarda, normatif prosedürden bir sapma olarak görülen hata ile rasyonel ve normal olarak kullanılan etkili prosedürden bir sapma olarak görülen hata arasında temel bir çatışma vardır (Rasmussen ve Pejtersen, 1994). "

Ayrıca bakınız

Referanslar

Notlar

daha fazla okuma