Bireysel Sigortacılıkta Riski Ölçmenin Dünü, Bugünü, Yarını…

Eskiden içgüdüsel olarak yapılan risk modellemesi, herhangi bir veriye dayanmadan şeffaflıktan uzak ve uzun sürede yanlış yapılmaktaydı…

Aktüerya ile birlikte bir standart sağlanarak şeffaflık ve veriye dayalı bir anlayış geldi…

Gelecekte ise durum bambaşka bir noktaya taşınıyor, bizim adımıza veriyi temizleyen, inceleyen, birleştiren, doğru kaynaklardan veriyi çeken, modelleyen ve yorum raporları hazırlayan platformlar kullanılmaya başlanacak!

Lumnion Kurucu Ortağı ve Chief Analytics Officer’ı Aren HaddelerSigorta Strateji için yazdı.

 

Sigortacılıkta, bireysel ürünlerin fiyatlaması ve poliçe oluşturma süreçleri (Underwriting) tamamen iç içe geçmiş, birbirlerini tamamlayan disiplinlerdir. Her iki disiplin, bir diğerini düzeltirken ve yapılan yanlışlardan en çok bir diğeri etkilenmektedir. Sigortacılığın temel fonksiyonu riskleri ölçüp doğru pozisyon almak üzerinedir. Bu durumda risklerin geçmişte, günümüzde ve gelecekte doğru hesaplanması hem şirketler açısından hem de sigorta kullanıcıları tarafından kritik bir önem taşımaktadır. Zaman içerisinde teknolojinin gelişmesi, veri kaynaklarının artması ve yeni yöntemlerin üretilmesi ile risk ölçümleme metodolojisi de radikal değişimler geçirdi.


Geçmişte sadece sigortalanacak eşyanın değeri üzerinden bir hesaplama yapılıp, çoğunlukla şeffaf olmayan ve iç güdülere dayalı bir fiyatlama mevcuttu. Böyle olmasının sebebi de rekabetin çok fazla olmaması, verilerin tutulmaması, genel olarak ihtiyaç duyulmamasından kaynaklanıyordu.

Aktüerya ile fiyatlama metodolojisi tamamen değişti. Matematiksel fonksiyonların veri üzerinde uygulanabilirliği, teknolojik altyapının müsait hale gelmesi ile birlikte 2000’lerden itibaren risk modelleme yöntemleri Sigortacılığın kalbinde bir yer kazandı. Sigortacılığı diğer sektörlerden ayıran en önemli fark, ürünün kullanımı bitmeden maliyeti tam olarak bilinemiyor. Bu sebeple de sigortalanacak malın dışında bir çok konunun ele alınması ve çok detaylı bir şekilde incelenmesi gerekmektedir. Yapılan araştırmalar ve kurulan modeller göstermiştir ki, sigortalının yaşı, cinsiyeti, bulunduğu lokasyonu, sigortanın büyüklüğü, şirketin erişim ağı, servis ağı gibi birbiri ile ilgisi olmayan ancak maliyet için önemli bir çok faktör bulunuyor. Tüm bu faktörlerin önem derecesi şirketlerin veriyi tutma, portföy yapısı, makro ve mikro ekonomik değişkenler doğrultusunda çok değişecektir. Her portföyün yapısı birbirinden farklı olduğu için aslında her portföyün risk model algoritması oldukça farklılaşabilir.


Günümüzde fiyatlama için risk modellemesi bir çok farklı yöntem kullanılmaktadır. Bu yöntemler arasında en yaygın kullanılan yöntem ise ‘Genelleştirilmiş Lineer Modelleme’ yani GLM yöntemidir. Regresyon ailesinin bir algoritması olan GLM, arka planında oldukça karmaşık matematiksel fonksiyonlar bulundurmakla birlikte günümüzde tercih edilmesinin sebebi ürettiği sonuçların sadeliğidir. Şeffaf ve kolay yorumlanabilir sonuçları ile hem aktüerlerin hem de karar verici ekiplerin aksiyon almasını çok kolaylaştırmıştır. Portföy için önemli her faktör ve o faktörün değeri için bir çarpan üretirken, portföyün baz fiyatını da göstererek sonuçların somut yansımasına kolay ulaşılabiliyor.

Örneğin tek değişkenli bir GLM algoritması baz fiyatı 1000 TL olarak hesaplayıp, hasarsızlık kademesinin 0. seviyesine 1.3, 1. seviyesine 1.22, 5. Seviyesine de 0.87 katsayılarını üretti. Basit bir hesaplama ile 0. Seviye hasar kademesi olan müşterilere 1300 TL, 1. Seviye hasar kademesi olan müşterilere 1220 TL ve 5. Seviye hasar kademesi olan müşterilere de 870 TL risk maliyetine ulaşıldı. Bu yöntem hem yorumlanmasında hem de üretilen fiyat ve kuralların fiyatlama sistemlerine dahil edilmesinde çok büyük kolaylıklar sağladı. Değişken piyasada üretilen katsayıları alınacak aksiyona göre değiştirerek canlıda olan tarifeyi hep taze tutabilmenin önünü açtı.


Ancak teorik dünyadan gerçek dünyaya geçerken bir çok sapmalar gerçekleşiyor. Hayat nasıl doğrusal bir düzlemde hareket etmiyorsa, şirketlerin portföyleri, müşterileri ve riskleri de doğrusal hareket etmiyor. Son yıllarda yurt içi ve yurt dışında bulunan aktüerler, akademisyenler, risk modellemesi ile ilgilenen profesyoneller, GLM algoritmasının doğrusal sonuçlarının gerçek piyasadaki etkilerini araştırıp, aslında doğrusal olmayan patikaların olduğunu fark ettiler. Doğrusal olmayan patikaların da gelişmiş makine öğrenmesi algoritmaları ile çözümlenebildiğini, bazı durumlar ve şartlarda sonuçların da çok daha iyi olduğunu tespit ettiler.

Bu durum aktüerya alanında yeni bir çağın başlamasına neden oldu: Makine Öğrenimi tabanlı risk modellemesi. GBM (Gradient Boosting), yapay sinir ağları (Neural Network), Rassal Ormanlar (Random Forest) gibi algoritmalar ile doğrusal olmayan patikalar saptanmaya çalışılıyor. Makine ve derin öğrenme algoritmaları kendi içlerinde yüzlerce küçük algoritma çalıştırarak çok yüksek kombinasyonlarda sonuçları derleyip kullanıcıya ulaştırmaktadır. Örneklendirmeye çalışırsak, bir sürücünün hasar getirme riski aynı anda hem yaşına, cinsiyetine, yaşadığı ile, kullandığı araca, aracın model yılına göre değişir. Bu risk faktörleri de ilk aklımıza gelenler, bir de aklımıza gelmeyen veya gözle takip edemeyeceğimiz kademelerin olduğunu da kabul etmemiz gerekiyor. Burada da algoritmaların gücü ortaya çıkıyor. Lineer algoritmalar tek yönlü, iki yönlü, çok özel durumlarda 3 yönlü bakarken duruma, yeni nesil makine öğrenmesi algoritmaları tüm değişkenlerin tüm seviyelerini olası tüm kombinasyonları şeklinde hesaplamalara dahil ediyor. Yeterli veri mevcut olduğunda, GBM, Neural Network, Random Forest gibi algoritmalar, çoklu yönlü hesaplamalar yaparak, neredeyse kişiselleştirilmiş risk hesaplayabilir.

Kişiselleştirilmiş risk hesaplaması, mevcuttaki genelleştirilmiş lineer modellemenin önüne hesaplama tutarlılığı açısından geçiyor gibi gözüküyor. Ancak bu durum da doğru sonuç ile başka bir problemi beraberinde getiriyor: Yorumlama zorluğu. GLM algoritması ne kadar kolay yorumlanıp üzerine çeşitli kurallarla aksiyon alınabiliyorsa, GBM, Neural Network gibi algoritmaların yorumlanması ve anlaşılması bir o kadar güç oluyor. Bu tarz durumlarda da şirketin tercihine kalıyor.


Yeni nesil algoritmaların çalışabilmesi için güçlü bir teknolojik altyapı ihtiyacı bulunuyor. Güçlü sunucularda veya bulut ortamında çalıştırılması gerekiyor. Aksi takdirde ya sonuç alınamayacak ya da algoritmaların sonuç üretmesi saatler, günler sürecektir. Günümüzde bu gelişmeler ile birlikte AutoML (otomatikleştirilmiş Makine Öğrenmesi) platformları da oldukça popüler oldu. Veri hazırlığından, veri seçimine, çoklu algoritma oluşturma, modellerin karşılaştırılması, öneri sistemleri, yorumlamayı kolaylaştıran raporlar bu platformlar sayesinde hayatımıza giriyor. Daha önceleri bir aktüer veriyi manuel hazırlarken, önemli faktörleri elle gözle ararken, bu süreçler aktüerin hayatını oldukça kolaylaştırmaya başladı. Bu platformlar aktüeri risk modelinin en önemli kısmı olan yorumlama kısmına, hipotez testine odaklamayı amaç edindiler.

Yapay zeka ve makine öğrenmesinin fiyatlamaya girmesi ile yeni roller de oluşuyor. Aktüeryal Veri Mühendisi, Aktüeryal Veri Analisti, Aktüeryal Veri Bilimcisi gibi roller artık organizasyonda yer alıyor. Bu roller AutoML platformlardaki veri hazırlığından algoritmaların ince ayarlarından, doğru sonuç üretip üretmediğinden, hipotezlerin oluşturulmasından sorumlu oluyorlar. Her ne kadar bu süreçler otomatikleştirilse dahi, günümüzde hala her adımında bilgili birisinin son dokunuşuna ihtiyaç duyulmaktadır.

Veri bilimi ile birlikte, mevcut portföydeki verinin sağladığı bilgiden çıkıp, geleneksel yöntemlerin üzerine çıkılabiliyor. Risk modelinin üzerine müşterilerin davranış modelleri, fiyat hassasiyet modelleri, yaşam boyu değer modelleri, erime modelleri gibi gelecekte olabilecek durumlara karşı bir çok senaryo üretip bu senaryo sonuçlarına göre pozisyon alınabilmektedir.


Özetle, eskiden içgüdüsel yapılan risk modellemesi, herhangi bir veriye dayanmadan şeffaflıktan uzak ve uzun sürede yanlış yapılmaktaydı. Aktüerya ile birlikte bir standart sağlanarak şeffaflık ve veriye dayalı bir anlayış geldi. Günümüzün en çok kullanılan algoritması GLM neredeyse bir sektör standardı haline geldi.

Gelecekte ise durum bambaşka bir noktaya taşınıyor, bizim adımıza veriyi temizleyen, inceleyen, birleştiren, doğru kaynaklardan veriyi çeken, modelleyen ve yorum raporları hazırlayan platformlar kullanılmaya başlanacak. Bu da hem maddi hem de manevi olarak (veri hazırlamanın çok yıpratıcı bir süreç olduğunu düşünerek) şirketlere ve aktüerlere çok katkıda bulunacaktır.

Yükseköğrenim hayatında Bilgisayar Mühendisliği lisans ve MBA yüksek lisans programlarını tamamlamıştır. KoçSistem’de Yazılım Geliştirme Danışmanı, Akbank’ta ise Bireysel Analitik Müdürü olarak görev almıştır. 2017 yılından beri Kurucu Ortağı olduğu Lumnion’da Analitik Ürünler ve Hizmetlerin yönetiminden sorumludur. Ayrıca Sabancı Üniversitesi ve TSEV’de makine öğrenmesi eğitimleri vermektedir.