Büyük verinin iş süreçlerine etkileri dosyası

Baykan Çallı

İş süreçlerinin tamamen yeniden şekillenmesini zorunlu kılan büyük veri, dünya çapındaki etkisini günden güne arttırıyor.
Hızla gelişim gösteren teknolojiler, kişisel olarak insanların hayatlarına tesir ettiği gibi aynı zamanda firmaların iş yapış şekillerinde de büyük değişimler meydana getiriyor. Teknolojide yaşanan değişim, üretilen ve işlenen verinin büyüklüğünün de devasa olarak artmasını beraberinde getiriyor. Geleneksel iş süreçleri, firmaların stratejilerini olumsuz yönde etkiliyor. Eskiden birkaç disket, CD gibi yardımcı ürünlere sığdırılan veriler artık Terrabayt-TB’lik disklere zor sığar durumda bulunuyor. Bilişim teknolojilerinin yabancı olmadığı veri yönetimi, giderek büyümesinden dolayı karmaşık ve uğraşılması güç bir hal alıyor.
Telepati Dergisi olarak hazırlamış olduğumuz dosya çalışmamızda, bilişim teknolojileri sektöründeki önemli oyuncuların büyük veri yönetimi hakkındaki görüşlerini ve müşterilerine sundukları çözümleri sizler ile paylaşıyoruz.

Arena Bilgisayar, Kurumsal Ürünler Grup Müdürü Cenk Soyluoğlu: “Büyük veri kavramı, yeni nesil verilerin temelini oluşturuyor”
Son on yılda sayısal dünyaya geçiş inanılmaz bir ivme kazandı. İnternet kullanımının giderek yaygınlaşması ve verilerin neredeyse tamamının sayısallaşması, bizi “Büyük Veri” dediğimiz kavram ile karşı karşıya bıraktı. Geldiğimiz noktada, “Büyük Veri” kavramının yeni nesil verilerin temelini oluşturduğunu söyleyebiliriz.
IDC tarafından yapılan bir araştırmaya göre, senelik veri artışı yüzde 40-60 oranlarında değişiyor. IDC’nin Türkiye’de yaptığı araştırmada ise 2013 yılının sonuna kadar yılda yüzde 40 oranında bir veri artışın olacağı belirtiliyor. Bu verilerin yüzde 90’ının yapılandırılmamış veriler olacağı tahmin ediliyor.
Veri artışında yaşanan patlamadan neredeyse bütün sektörler ciddi ölçüde etkileniyor. Yaşanan bu gelişmeler firmaların iş sürekliliğini de ciddi ölçüde etkiliyor. Operasyon süreçlerindeki yetkinliklerini artırmak, giderlerini azaltmak, risklerinin en aza indirmek ve rekabet avantajı sağlamak, iş süreçleri ile ilgili olan her türlü verinin yaşam döngüsünü yönetilebilmesini gerektiriyor. Bu noktada ileri görüşlü BT liderleri, “Büyük Veri” kavramının yaratacağı yeni sorunlar ile başa çıkabilmek için hem maliyetlerini kontrol altında tutan, hem de verilerden en iyi şekilde yararlanılmasına yardımcı olacak altyapılar tercih etmeyi hedefliyorlar.

Veri depolama teknolojilerinde dağıtıcının rolü önemli
Veri depolama teknolojileri, alanında gelişmiş ülkelerde distribütörler temelde 3 farklı görev üstleniyor.
Birincisi: bazı katma değerli distribütörler kendi veri merkezlerini kuruyorlar ve bu veri merkezleri üzerinden bazı BT-Bilişim Teknolojileri hizmetlerini iş ortakları aracılığı ile kurumlara kiralıyorlar. Yani bu modelde dağıtıcı aynı zamanda veri merkezi hizmeti veriyor. Bu yolu seçen distribütörler, benzer servisleri sağlayan üreticilerle ve veri taşıyıcılarla rekabet içerisine giriyor ve ölçek ekonomisinden dolayı yatırım-kazanç oranları düşük gerçekleşiyor.

Maliyet ve güven avantajı
Veri depolama servislerini verecek olan tedarikçileri küresel, bölgesel ve yerel olarak sıralayabiliriz. Küresel sağlayıcılar maliyet avantajını ön plana çıkarırken, bölgesel ve yerel sağlayıcılara daha fazla güven duyuluyor. Ayrıca yerel sağlayıcılar, kuruma özel çözüm sağlayabilme avantajlarını ortaya koyabiliyorlar.
Distribütörler farklı üreticilerin BT hizmetlerini kullanarak farklı BT servis paketleri oluşturuyorlar. Örnek olarak dağıtıcı; bir üreticiden depolama hizmeti, başka bir üreticiden e-posta hizmeti sağlayabiliyor. Her serviste birden fazla alternatif olduğu için distribütör kullanıcının ihtiyacına göre farklı paketler oluşturabiliyoruz. Distribütör BT hizmetlerinin kullanıcıya satışı ile ilgili kanalın oluşumunu sağlıyor yani bir nevi bu hizmetleri kullanıcıya anlatacak bir satış ekibi kuruyor. Bu satış ekibi, dağıtıcının iş ortaklarından oluşuyor. Bu firmalar zaten BT donanım ve yazılım satışı konusunda uzman olduğu için veri depolama hizmetlerinin satışı ile ilgili çok ciddi bir avantaj elde ediyorlar.

Ekiplerin yetkinliği avantajdır
Kurumlara alacakları hizmetin içeriğini ve sağladığı avantajları anlatırken kafalarında oluşacak soru işaretlerini ve tereddütleri iyi anlamak ve bunları tatmin edici bir şekilde cevaplamak ancak müşteri süreç ve ihtiyaçlarına hâkim olan yetkin ekiplerle mümkün olabiliyor. Burada iş ortağı ekosistemimizin öneminin arttığına inanıyoruz. Biz Arena olarak şu an bu görevi üstlenmiş durumdayız. Hedefimiz ileriki dönemlerde ikinci ve üçüncü modelde hizmet şeklini verebilmek.

Dell Veri Depolama İş Geliştirme Müdürü Şükrü Ergür: “Asıl önemli olan artan bu veriden sonuç çıkaracak teknolojiler kullanmaktır”
Kurumların saklamak zorunda olduğu sayısal veri miktarı gün geçtikçe çeşitlenerek artıyor. Artan verinin çoğu veri tabanı gibi yapısal veriler değil, yönetilmesi daha zor olan yapısal olmayan veriler tarafındadır. Bu yapısal olmayan veriler dokümanlar, video, resim ve ses dosyaları gibi çok büyük veri depolama alanlarına ihtiyaç duyan verilerdir.
Çok hızlı artan verinin yönetimi gittikçe zorlaşmaktadır. Asıl önemli olan artan bu veriden sonuç çıkaracak teknolojiler kullanmaktır. Bunun önündeki zorluklar başlıca iki kısma ayırabiliriz: Çok büyük veriyi saklamak için gerekli donanım ve yazılım yapısını kurumun ayırabileceği bütçeler içinde satın almak ve kurumun insan kaynağı ile bunu yönetebilmek. Genellikle büyük veri yönetimi özel yaklaşım gerektirdiğinden bu konuda deneyimli personel bulmak da zor olmaktadır. Üreticilerin her biri bu konuda müşterilerine avantajlı çözümler ürettiklerini iddia ederek farklı olduklarının altını çizmektedirler.
Büyük veri bilimsel araştırmalardan video arşivlerine, sağlık sektöründen askeri çalışmalara kadar birçok alanda kullanılıyor. Video verisi doğal olarak kapasite bazında başı çekiyor diyebiliriz. Medya sektörü, güvenlik sektörü hatta akıllı video analizleri sayesinde bankacılık ve perakende sektöründe video verileri kullanılabiliyor. Sağlık sektöründe görüntüleme teknolojileri ve laboratuvar kayıtları saklanması gereken veriler. Tüm sektörler için ise dokümanların elektronik olarak saklanması ve taranmış dokümanların yönetilmesi de büyük veriyi oluşturabilecek etmenlerden birkaçıdır. Büyük veri açısından savunma ve güvenlik, medya ve telekomünikasyon önde gelen sektörler diyebiliriz.

Dell’in akışkan veri mimarisi her iki maliyet unsuruna da çözüm getiriyor
Büyük veriye yönetirken bunu yapış yöntemlerinize göre değişik büyüklükte yatırım ve operasyon maliyeti oluşmaktadır. Bu maliyetleri en aza indirmek şüphesiz kurumların en baş hedeflerinden biridir. Klasik veri depolama ve yönetim, büyük veri düşünülerek tasarlanmadığından, bu teknolojiler tercih edildiğinde hem yatırım maliyeti hem de operasyon maliyetini artacağı kesindir. Dell’in akışkan veri mimarisi her iki maliyet unsuruna da çözüm getirmekte.
Operasyon maliyetinin (OPEX) azaltılması: Dell akışkan veri teknolojisi ile BT yöneticileri çok büyük verileri yönetme işine fazla zaman ayırmak zorunda değiller. Sistem veri büyüklüğünden bağımsız olarak çalışmakta ve verileri BT yöneticisinin önceden belirlediği kurallara göre yönetmektedir. Bunun sonucu olarak BT yöneticilerinin zamanları daha verimli kullanılmakta ve veriler büyüse dahi bu verileri mevcut personel ile yönetebilmek mümkün olmaktadır.
Yatırım maliyetinin (CAPEX) azaltılması: Büyük verinin büyük bir yüzdesi atıl verilerden oluşmaktadır. Bu atıl veriler, yasalar veya şirket içi kurallar yüzünden silinememektedir ve bu verilere erişim oldukça seyrektir. Dell akışkan veri teknolojisi ile büyük verilerin atıl olan kısmı daha az maliyetle depolanırken çok erişilen alanlar daha yüksek hızda erişilecek şekilde saklanıyor. Bu ayrımı yapmak için ise, herhangi bir kişinin müdahalesine ihtiyaç yok. Dell, akışkan veri teknolojisi bir sihir ile tam da ihtiyacımız olan şeyi yapıyor.

Rekabetçi kararlar almak
Yapısal olmayan verilerin depolanması yasal gereklilik olarak yapılmıyorsa bile üzerinde analiz yapılarak faydalı bilgi edinmek için depolanıyordur. Bu depolanan verilerden analizler yapılarak iş kararlarını yönlendirmek mümkün olabilir. Analiz sonuçları rekabetçi kararlar vermeye ve şirketlerin satışlarını ve karlılığını artırıcı yönde önlem almalarını sağlamaktadır.

Büyük veriyi yönetirken insan müdahalelerini en aza indirecek teknolojiler kullanılmalıdır
Büyük veriyi akıllı veri depolama sistemleri ile yönetmediğimizde oldukça fazla operasyon işlemi yapılması gerekir. Bu işlemler sırasında yapılan insan hataları sistemde veri kaybına veya performans kaybına neden olabilir. Bunun çözümü ise büyük veriyi yönetirken insan müdahalelerini en aza indirecek teknolojiler kullanmaktır.
Büyük verinin kabul edilebilir maliyetlerle depolanması başlı başına bir problem. Bu konunun çözümü için en önemli adım kurumun bu verinin güvenliği ve erişimi için bir ihtiyaç analizi yapmasıdır. Bu analizler sonucunda basamaklandırılmış (tiered storage) veri depolama altyapısının toplam sahip olma maliyeti açısından en avantajlı çözüm olduğu görülecektir. Depolanan verinin küçük bir kısmına erişim yapılıyor ve çok büyük bir kısmı yasal nedenlerle saklanıyor ise; otomatik olarak basamaklandırma yeteneği olan veri depolama sistemleri maliyetleri düşürecektir ve yönetimi kolaylaştıracaktır. Diğer taraftan yüksek maliyetli FC sistemler yerine, iSCSI çözümler ve çok yüksek önbelleği olmayan sistemler tercih edilmelidir. Büyük veri demek çok miktarda disk sürücü demek olacağından yüksek performans için büyük önbellek miktarlarına gereksinim olmamaktadır. Özellikle video kayıt sistemlerinde önbelleğin iptal edilmesi daha yüksek verim elde edilmesini sağlamaktadır.

Dell ‘Scale-out’ çözümleri büyük veri yönetiminde büyük kolaylık sağlıyor
Dell’in veri yönetim çözümleri ‘Scale-out’ adı verilen ve kapasite büyüdükçe performansın da aynı oranda arttığı mimarilerdir. Hem NAS hem de SAN alanındaki Dell’in ‘Scale-out’ çözümleri büyük veri alanlarının yönetilmesinde doğal olarak müşterilerine büyük kolaylık sağlamaktadır.

Veri büyüdükçe yedekleme ve felaket kurtarma için olan gereksinimler de artıyor
Veri güvenliği doğru verinin sadece doğru kişiler tarafından her zaman kesintisiz erişilmesi olduğuna göre veri miktarımız arttıkça ve özellikle büyük verinin daha çok yapısal olmayan verilerden oluştuğunu düşününce bunun zorluğu ortaya çıkmaktadır. Veri büyüdükçe, yedekleme ve felaket kurtarma için olan gereksinimler de o oranda artmaktadır.

Türkiye’de büyük veri dediğimiz şey aslında büyük veri tanımına girmemekte
Büyük veri konusunda dünya geneli ile Türkiye’deki projeleri değerlendirdiğimizde aslında Türkiye’de büyük veri dediğimiz şey aslında büyük veri tanımına girmemekte. Büyük veri tanım gereği mevcut BT yapılarındaki araçlar ile kolayca çözülemeyen veri depolama ve veri saklama gereksinimine verilen addır (Wikipedia). Şu anda bizim gördüğümüz kadarı ile, Türkiye’deki en büyük ölçekteki veri depolama ve yönetim projeleri firmaların ‘out-of-the box’ çözümlerinde herhangi bir uyarlama yapılmasına gerek kalmaksızın çözülebiliyor. Bu da gösteriyor ki, mesela büyük bir veri alanı olarak görebileceğimiz 1 PetaByte (1 milyon Gigabyte) verisi olan firmada bile büyük veri var diyemiyoruz.

EMC Teknoloji Danışmanlığı Takım Lideri Emin Çalıklı: “Büyük veri kavramları şirketlerin en değerli varlıkları olan veriyi yönetmede önemli bir fırsat sunuyor”
Bulut bilişim ve büyük veri kavramları şirketlerin en değerli varlıkları olan veriyi yönetme ve bu verilerden fayda sağlama konusunda önemli bir fırsat sunuyor. Şirketler bulut bilişime geçiş süreçlerinde yol alırken işleriyle ilgili gerçek zamanlı, kritik önem taşıyan kararlar almak için büyük veri işlemlerinin sağladığı değerlerden yararlanabiliyor. Bu sayede mevcut BT-Bilişim Teknolojileri ortamlarının karmaşıklığını azaltmanın yanında, sundukları hizmet düzeyini geliştirecek fırsatlara da sahip olabiliyor.
EMC olarak, her ölçekte işletmeye; buluta giden yolculukta BT hizmetlerini dönüştürürken, gerçek zamanlı olarak büyük verilerini analiz etmek için hangi fırsatlara sahip olacaklarını ve büyük veriden nasıl maksimum fayda sağlayabilecekleri konularında çözümler sunuyoruz.

Sanallaştırma teknolojilerinde olgunlaşma gerekiyor
EMC olarak, büyük veri ve dolayısıyla bulut bilişime giden yolda sanallaştırma teknolojilerinde olgunlaşma gerektirdiğine inanıyoruz. Aynı zamanda müşterinin beklentilerini iyi analiz etmek ve önceliklerini belirleyerek bir strateji oluşturmak gerekiyor. Veri merkezinde sunucu sanallaştırmasının yanı sıra, ağ ile veri depolama sistemlerinin de sanallaştırılması gerekir. Bunun yanı sıra, bulut içerisinde gerektiği noktalar arasında kapasite ve performansın otomatik olarak kaydırıldığı, verimliliği arttıran teknolojiler kullanılmalıdır. Bulut mimarisinin tek merkezden yönetilebilmesi, bulutun içindeki kaynakların kullanım miktarlarının detaylı raporlanabilmesi, yeni servis seviyelerini yaratabilecek esnek yapı kullanılması, kullanıcı Net kapısı ile bütünleştirilmesi, bulutun güvenliliğinin sağlanması, hatta bulut hizmeti veren şirket veya kuruluşun muhasebe ve ödeme sistemleri ile bütünleştirilmesi bulut mimariye giden yolda unutulmaması gereken noktalardır.

Verimlilik ve süreklilik
Verinin iş süreçlerine dahil olarak yönetilmesi hala uygulama katmanında yapılmaktadır. Uzun performans gerektiren çalışmalar sonrasında, “süreç ile verinin eşzamanlı şekilde hareket edebilmesi sağlanmış olsa bile bu yapısal birkaç çözümle kısıtlı kalmıştır. Günümüzde, kolay, daha az maliyetli ve esnek olan çözüm uygulamaya şeffaf bir şekilde verilerin sınıflandırılmasıdır. EMC hizmet verdiği firmalara; ihtiyaç duyulduğu anda kapasite, performans ve süreklilik ihtiyaçları göz önüne alınarak verinin dinamik olarak değişik kaynaklar arasında taşınmasını da sağlamaktadır.

Verilerin sınıflandırılması ve doğru katmalarda saklanması en büyük sorun
Verilerin sınıflandırılması ve doğru katmalarda saklanması en büyük sorun olarak karşımıza çıkmaktadır. Geleneksel “monolitic” yaklaşımlar yerine verinin değişik katmanlarda doğru bir şekilde konumlandırılması maliyet avantajı yaratacağı gibi karar destek sistemleri açısından daha performanslı seçenekler ortaya koyabilecektir. Diğer bir önemli konu ise, sahip olunan veriden anlam çıkartılması ve kullanılmasıdır. Doğru çözüm ve yaklaşımlar ile veriden iş için anlamlı veriler çıkarmak mümkündür. Dolayısı ile kurumlar ‘Büyük Veri Analizi’ için doğru ve tutarlı çözümler için ilgili altyapıyı sağlamak durumundadırlar.

Tek elden kolay yönetim
EMC’nin bulut bilişim görüşü sanallaştırmanın sunucu sanallaştırmasının ötesine taşındığı, verinin depolama, ağ, sunucu ve uygulama gibi tüm katmanlarının sanallaştırılarak tek bir havuz olarak kolayca yönetilebildiği, otomatik olarak kaynak tahsisi, iyileştirilmesi ve kaynak geri kazanımı özelliklerine sahip, kullanım oranlarının kolayca ölçüldüğü bir yapıya dayanmaktadır. Hatta bu havuz yapısının tek bir veri merkezinin ötesine taşındığı ve birden fazla ver merkezinin bile tek bir havuz olarak çalışabildiği bir geleceğe doğru ürün ve çözümler geliştirilmeye devam edilmektedir. Cisco, VMWare ve EMC’nin güç birliğinden ortaya çıkan VCE (Virtual Computing Environment) sanal bilişim ortamı, yaygın sanallaştırma ve özet bulut altyapılarına geçişin yalınlaştırılması ve ivme kazanması konularında kurumlara destek oluyor. Bu güç birliği, BT altyapısı esnekliği sağlayarak müşterilerinin iş alanında daha rahat hareket etmelerini, yaygın veri merkezi sanallaştırması ve özel bulut altyapılarına geçiş ile BT, enerji ve emlak harcamalarını azaltmalarını sağlıyor. ‘Vblock’ altyapısında kullanılan esnek yazılımlar sayesinde şirketlere BT stratejilerini özel bulutlar etrafında düzenleme ve iyileştirme olanağı sağlıyor. EMC ürün çeşitliliği, servis ve hizmet yapısı ileriye dönük, bulut bilişim yöntemlerini benimsemiş bir yapıya doğru evrimleşmektedir. VCE; Vblok ürününün yanı sıra, hem orta hem de kurumsal ölçeklerdeki çözümlerde birden fazla bölgede çalışabilecek, verimliliği otomatik olarak iyileştirecek şekilde çalışan bütünleşik sistemler ortaya çıkmaktadır. FAST yazılımımız sayesinde, veri doğru zamanda doğru katmanda otomatik olarak konumlandırılabilir. ‘RecoverPoint’ cihazları sayesinde değişik marka ve model depolama sistemleri birbiri ile bütünleştirilip bölgeler arasında veri koruması sağlanabilir.

GlassHouse Türkiye Satış Yöneticisi İlter İnanç: “Bilgi ise her aşamada, paraya, saygınlığa veya güce dönüşebilir”
Büyük veri, yapılanmış veri haline geçtiğinde artık elimizde bilgiye dönüşmüş veri vardır. Bilgi ise her aşamada, paraya, saygınlığa veya güce dönüşebilir. Müşterilerimizin gözünde bizi diğer rakiplerimizden “Farklı” ve “Tek” konumuna getirecektir.
Müşterilerimiz ile ilgili şahsi bilgilerin işlenmesi ile kişiye özel kampanyalar üretilip, satışların arttırması mümkün olabilir veya doğum gününü hatırlamak müşterilerimize verdiğimiz değerin ifadesi olabilir. Ancak büyük veri altyapılarının kurulması ve işletilmesi yüksek maliyetlere sebep olacağından, birçok firmanın kaynakları ortak kullanarak oluşturacağı bulut servisi maliyetleri düşürecektir.

Büyük verinin sınıflandırılmasında üç temel nokta
Büyük veri genellikle yapılandırılmamış olduğundan, elde edilmek istenen bilgilere göre analiz edilip, sınıflandırılır. Bu süreçte üç temel ihtiyaç ortaya çıkmaktadır.
•          Büyük verinin bozulmadan ve verimli şekilde saklanması
•          Büyük verinin kabul edilebilir sürede işlenmesi
•          Büyük verinin elde edilen kaynağa veya veri tipine göre yapılandırılması / analiz edilmesi.
Büyük verinin yönetimi, sanallaştırma, bulut gibi teknolojilerin kullanımı ile daha kolaylaşmış ve verinin bilgiye dönüşümü sağlanmıştır.

Rakiplerinize karşı avantajlı olun
Firmalar büyük verileri analiz ederek aşağıdaki bilgileri elde etmeyi hedeflemektedirler:

  • Müşterilerinin davranışlarını doğru anlamak ve yönlendirmek
  • Eğilimleri ve popular konuları sosyal medya analizleri ile anlayabilmek,
  • Reklam kampanyalarını doğru hedeflemek ve iyileştirmek,

Büyük veri, analiz edilerek, yapılanmış veri haline geçtiğinde artık elimizde bilgiye dönüşmüş veri vardır. Bilgi ise her aşamada, paraya, saygınlığa veya güce dönüşebilir. Müşterilerimizin gözünde bizi diğer rakiplerimizden “Farklı” ve “Tek” konumuna getirecektir.
Ülkemizde sağlık, finans ve telekom sektörü firmaları büyük veri konusunda yatırımlarına devam ediyorlar. En geniş kapsamlı verinin oluştuğu devlet sektörü ise, altyapıların ortak platformlara dönüşüm çalışmalarını sürdürmektedir.

Veri depolamada, diske bağımlı bir sistemden performans beklentiniz var ise bir adım geriden geliyorsunuz demektir
Şüphesiz ki şirketlerin en değerli varlıkları olan verilerinin korunması ve depolanması, son yıllarda en önemli konuların başında gelmekte. Gelişen teknolojiyle birlikte, verilerin artışı inanılmaz bir hızla gerçekleşirken; bunların korunması, depolanması, felaket durumunda tekrar geri dönüşünün sağlanması ve tabii ki depolanan verilerin doğru şekilde yönetilmesi büyük önem taşımakta.
Veri depolama, kurumsal bilgiye kesintisiz ve etkin bir şekilde ulaşımı; sistemlerin çökmesi ya da felaket durumlarında dahi, iş sürekliliğinin sağlanmasını temel hedef olarak benimsemektedir. Veri depolama sistemleri veriye en etkin şekilde ulaşım ve yedeklemeyi sağlarken; kesintisiz geri dönüşü de sağlayacak şekilde tasarlanmaktadır.
Veri depolamada, diske bağımlı bir sistemden performans beklentiniz var ise bir adım geriden geliyorsunuz demektir. Özellikle “deduplication-tekilleştirme” algoritmasını kullanan sistemlerde diske bağımlı yapıların, performans üzerinde negatif etkilerine şahit oluyoruz. Oysaki bu algoritmayı CPU (işlemci) merkezli çalıştıran sistemlerde performansın beklenenin üzerine çıktığını görüyoruz.
“Kontrol edilemeyen veri artışı” kavramını artık daha çok duyacağız. Peki, bu artışını kontrol edemediğimiz veriyi depolarken, elimizdeki diskleri verimli kullanabiliyor muyuz? Tekrar eden verilerin her seferinde depolanması-saklanması yolunu tercih eden bir sisteminiz varsa yine bir adım geriden geliyorsunuz demektir.
Tekilleştirmeyi doğru yapan sistemleri tercih ettiğinizde, elinizdeki diskleri daha verimli kullanabilir hale geliyorsunuz. Kaynakları doğru kullanabilmek yani verimlilik, performansla birlikte veri depolama eğilimi olarak öne çıkıyor. Büyük veriler için veri dizinlerini bildiğimiz veri tabanı yönetim sistemi ile tutmaya kalkmak pek mümkün görünmemektedir. Büyük veri ile veri tabanı sistemleri ve uygulama geliştirme dilleri değişecektir. Hadoop ve Nosql veri tabanları günümüzde gittikçe önem kazanacaktır. Cobol, Pascal, Fortran gibi uygulama geliştirme dilleri yok olduysa belki günümüzde kullandığımız birçok veri tabanı ve yazılım geliştirme dili gelecek 3-5 sene içinde olmayabilir.

Deneyim ve uzmanlık
Yeni nesil yedekleme çözümleri ile büyük verinin uzun süreli saklanması ve depolanması tekilleştirme çözümleri ile sağlanabilmektedir.
Glasshouse Türkiye, deneyimli ve başarılı ekibiyle finans-bankacılık, sigorta, telekom, lojistik, üretim, perakende gibi farklı sektörlerdeki şirketlere ve Türkiye’nin önde gelen büyük kuruluşlarına yedekleme, sanal teyp kütüphaneleri, tekilleştirme, arşivleme ve veri depolama konularında çözüm ve danışmanlık hizmetleri sunuyor. GlassHouse Türkiye aynı zamanda EMC’nin Türkiye’deki BRS (Backup and Recovery Systems) çözümlerinin de ana iş ortağı olarak faaliyet göstermektedir.

HP Türkiye Yazılım Ülke Müdürü Nil Bağdan: “Sayısal evrenin büyüklüğü 500 milyar gigabayt”
Bugün sayısal evrenin büyüklüğü 500 milyar gigabayt ve dünya nüfusunun yalnızca dörtte biri İnternet’e bağlı. Şirketlerin sayısal evrende “Big Data” olarak adlandırılan muazzam veri yığının altında kalmaması ve daha da önemlisi bu veriden iş faydaları yaratması için veri toplama ve veriyi işleme sistemlerini değiştirmesi gerekiyor. Buna veri yönetimi diyoruz.
Büyük veri ile başa çıkmanın iki yolu var: Birincisi, bulut bilişim ve geniş bant mobil ağlar ile İnternet’te işbirliğini geliştirerek iş süreçlerinin hızlandırılması. İkinci çözüm ise, anlamlı Web 3.0’la gelen ve yapılandırılmış verilerle yapılandırılmamış verileri birleştiren sosyal zeka analiz çözümleri. HP Vertica yapılandırılmış veri çözümleri ile HP Autonomy yapılandırılmamış veri analiz sistemini birleştirerek verilerin yüzde 100’ünü anlamlandırabiliyor ve yönetebiliyoruz.

Büyük veri yönetimi, kurumların en doğru iş kararlarını almalarına yardımcı olarak stratejik getiriler sağlıyor
Veriyi hızlı işlemek müşteri hizmetlerinden çağrı merkezine ve yeni ürünlerle hizmetlerin hızla geliştirilerek pazara sürülmesine kadar her alanda birçok avantaj sağlıyor. Büyük veri yönetimi, kurumların en doğru iş kararlarını almalarına yardımcı olarak stratejik getiriler sağlıyor. Büyük veri yönetiminin doküman yönetimine bütünleştirilmesi ise devlet kurumlarının istediği belgeleri anında sağlamaktan tutun da kurumun işlem geçmişini analiz ederek geleceğe yönelik kararlar almasına kadar pek çok alanda avantajlar sunuyor. Veri yönetimi şirket genelinde maliyetleri düşürerek performansı arttırıyor. Bu da doğrudan rekabet gücüne ve iş geliştirmeye etki ediyor.

Bilinçli olmak gerekiyor
Avrupa Birliği ve ABD ile Türkiye arasındaki en büyük fark, kurumların büyük veri karşısında ne kadar bilinçli olduğu. Bankacılık ve telekom sektöründe dünya ile paralel iken diğer sektörlerde daha kat edilmesi gereken mesafe olduğunu görüyoruz.

En büyük risk: ‘Bilgi yönetiminin öneminin kavranamaması’
Bilgi yönetiminde en büyük risklerden biri firmaların bilgi yönetiminin önemini kavrayamaması, bunu bulut yapıları ve belge yönetimi gibi tamamlayıcı alanlara iyi bütünleştirilememesidir. Bu açıdan bir iyileştirme sorunundan bahsediyoruz. Diğer büyük risk elbette veri güvenliğidir. Üçüncü büyük risk ise veri gizliliği: Büyük veri yönetiminde işin içine bulut bilişim giriyor. Bu bağlamda da SLA’ler (Hizmet Düzeyi Anlaşmaları) büyük önem kazanıyor.

HP kurumların sahip olduğu verinin yüzde 100’ünü yönetmesini, anlamlandırmasını ve iş sonuçlarına yönelik olarak kullanmasına olanak veriyor
HP, sektörün en kapsamlı ‘Bilgi İyileştirme Çözümleri’ ürün gamını oluşturmak için sahip olduğu fikri mülkiyet ve teknolojilerden yararlanarak, uzun zamandır inovasyona yatırım yapıyor. Bugün sadece HP kurumların sahip olduğu verinin yüzde 100’ünü yönetmesini, anlamlandırmasını ve iş sonuçlarına yönelik olarak kullanmasına olanak veriyor. HP bunu birleşik altyapı çözümlerinin yanı sıra Autonomy ve Vertica teknolojilerini kullanarak sunuyor. HP Autonomy yapılandırılmamış veri alanında lider konumda. HP Autonomy ile Twitter gibi sosyal ağlarda yapılan paylaşımlarla CRM bilgilerini birleştiriyor ve kurumsal itibar, müşteri memnuniyeti, performans ölçümü gibi alanlarda iş zekasını sosyal medyaya bütünleştiriyorsunuz.

Siber güvenlik ve veri gizliliği
Bu noktada güvenlik sorunları (siber güvenlik ve veri gizliliği) iki türlü açığa çıkabilir. Birincisi sosyal zekâ analiz sisteminde siber saldırılar, kötü amaçlı yazılımlar ve İnternet’in güvenli bir şekilde kullanılması öne çıkar.
İkinci olarak verilerin genel buluta taşınması önem kazanır. CRM bilgilerinizi, analiz raporlarınızı uzak sunucuda mı, yoksa kendi veri merkezinizde mi tutacaksınız? HP Autonomy gibi büyük veri çözümlerini satın mı alacaksınız, yoksa hizmet olarak yazılım modeli ile kiralayacak mısınız?
Bir şirket IaaS servisi ile kendi uygulamasını çalıştırıyorsa, servis anlaşmasını da ona göre yapmalı. Buna göre kontrol paneli istemeli, gerekirse kendi bilgisini kendi silmek veya başka bir hizmet sağlayıcıya taşımak için sözleşmeye gereken maddeleri koymalı. SaaS servisi alıyorsa tek markaya veya çözüme bağımlı olmayı, kilitlenmeyi önlemek ve taşınmayı kolaylaştırmak için sözleşmenin yine buna göre düzenlemesi gerekiyor.
Örneğin ABD Adalet Bakanlığı dosya paylaşım hizmeti Megaupload’ı kapattığı zaman, Megaupload’ın sunucu firmasının kullanıcıların dosyalarını 15 gün boyunca saklaması konuşuldu. Sonuç olarak Büyük Veri sistemlerinin çoğu zaman buluta bağlı olduğunu ve teknoloji altyapısının ötesinde, tam kapsamlı ve bilinçli bir hizmet yönetimi gerektirdiğini belirtmek gerekir.

IBM Türk Teknoloji Lideri Kıvanç Uslu: “Yeni teknolojiler bugüne kadar olduğundan çok daha fazla veriyi topluyor”
Yeni teknolojiler bugüne kadar olduğundan çok daha fazla veriyi topluyor, analiz ediyor ve içerikler çıkarıyor. Dolayısıyla, sezgilere değil, onaylı bilgilere dayalı daha akıllı kararlara göre eyleme geçilmesini sağlıyor. Eskiden bir şirketin kaç tane ofisi ve çalışanı olduğu, ne kadar ürün sattığı veya cirosu o şirketin etkinliğinin yegâne ölçütleri olarak kabul edilirdi. Bugün başarılı ve nüfuz sahibi bir şirket olmak “dünyayı nasıl gördüğü” ile alakalıdır.
Dünyayı en iyi görme biçimi ise verilerledir. Verinin hacmi giderek artmaya devam edecektir. IBM’in yaptığı araştırmalara göre, 2020 yılında üretilen veri miktarı 35 Zetabayt’a ulaşacak. Ayrıca, yeni veri üretim çeşitleri ve hızlarıyla da karşı karşıya kalacağız. Dolayısıyla, iş analitiği orta ve uzun vadede her büyüklükte şirketin önceliği olmaya devam edecek. Eldeki verilerin bilgiye dönüştürülerek strateji oluşturulabildiği günümüzde, gelişen pazar dinamiklerine ve kullanıcı ihtiyaçlarına yönelik özellikler çözümlere eklenecektir. Kullanıcılar da rakiplere karşı üstünlük kazanabilmek için bu alanda pazarın gereksinimlerine göre yatırım yapmaya devam edeceklerdir.

Akıllı bilişim
Akıllı bilişim adını verdiğimiz bu çağda, büyük verileri ve bilgileri bütünleştirme yetenekleri çok büyük miktarlarda veriden bilgi oluşturmayı mümkün kılarak, kuruluşların bilgileri kullanma şeklini temelden değiştirir. Bu, neredeyse tüm bağlı aygıtlardan saniye başına petabaytlarca veriyi süzme, verileri hareket halindeyken analiz etme, varsa hangi verilerin depolanacağına karar verme ve hatta verileri geleneksel ambarlarda depolanan verilerle sanal olarak bütünleştirmek için analitik araçlarını kullanma anlamına gelir. Kuruluşlar, kurumsal veri ambarlarına aşırı yüklenmeden yapılandırılmamış verileri bulundukları yerlerde (İnternet dahil) bütünleştirebilir ve analiz edebilirler.

Analitiğine geçiş
BT-Bilişim Teknolojileri analitiğine geçiş, BT ve iş operasyonlarının karar verme mekanizmalarında dönüşümsel bir değişime işaret ediyor. Bir iş alanının yarattığı yığınsal verileri denetim altına alan, öngörüsel analitik yöntemleriyle kurumlar, müşteri taleplerine daha hızlı ve doğru biçimde cevap verebilir, iş kesintilerinin önüne geçebilir ve iş sonuçlarını olumlu etkileyebilir. Analitik aynı zamanda maliyetleri, riskleri ve pazara sürme zamanlarını azaltarak yazılım geliştirme ve dağıtım süreçlerini iyileştirmeye yardımcı oluyor. Mobil cihazlardan, işyerlerinden ve erişim olan her yerden ulaşabilen ve analitik süzgecinden geçirilen bilgilerin yönetim mekanizmalarının karar verme süreçlerine dâhil edilmesi çok önemli bir avantajdır. Bugün bu sayede, değişik sektörde faaliyet gösteren pek çok kurum iş performanslarını daha iyi anlayarak maliyetlerini yönetme imkânı bulabiliyor.
Sektördeki son raporlar önümüzdeki beş yıl içerisinde şirketlerin veri hacimlerinin yüzde 650’nin üzerinde artacağı yönünde bilgiler içeriyor. Bu verilerin yüzde 80’inden fazlası ise yapısal olmayan veriler olacağı gibi, bu verilerin her yıl hacim olarak ikiye katlanması beklentisi de var. Liderlerin ve yöneticilerin, en uygun sonuçlar için geleceğe yönelik olarak hangi adımları atmaları gerektiğini bilmeleri gerekiyor. Kurumların giderek daha da artan bilgi yığınlarının arasında rekabette belli oranda öne çıkabilmeleri için gelecekte yapmaları gerekenlere odaklanmaları gerekiyor. İş zekâsı ve analitiği çözümleri şirketlerin bu belirtilen şekilde düşünebilmelerini sağlıyor. Böylece kararlarını güvenerek, geleceğe dair öngörüye sahip olarak alıyorlar. Şirketlerin iş performanslarını ölçümleyip geçmiş dönemlerle kıyaslayabilmeleri ve önceki yıla oranla yaşanan değişimlerin analiz edilmesi ve geleceğe dair yol haritalarını çizebiliyorlar. Bu da ciddi bir rekabet avantajı sağlıyor.
Büyük verilerle başa çıkmak için kullanılan iş analitiği ve iş zekâsı uygulamalarından en çok faydalanan bazı endüstriler arasında perakende, sağlık, telekom, sigorta, kamu ve bankacılık geliyor. Ellerine geçen verileri doğru yeteneklerle eşleştirerek ve analiz ederek performanslarını risk, müşteri hizmetleri ve operasyon verimliliği alanlarında daha iyi hale getirebiliyorlar. Örneğin, analitik, bankalara gerçek zamanlı müşteri bilgileri, hizmet seviyelerinin geliştirilmesi, ürün tasarlanması ve fiyatlandırma arasında bağlantı kurulması için destek verir. Ellerine geçen verileri doğru yeteneklerle eşleştirerek ve analiz ederek performanslarını risk, müşteri hizmetleri ve operasyon verimliliği alanlarında daha iyi hale getirebiliyorlar. İş süreçlerini iyileştirmek amacıyla bu çözümlere yönelen ve avantajlar kazanan işletmelere örnek olarak restoranlar gösterilebilir. İş analitiği yazılımlarını kullanan restoranlar satış hedefleri, gelirleri ve müşteri hediyeleri de dâhil olmak üzere, pek çok operasyonlarını etkili bir şekilde izleme fırsatı buluyorlar. Analitik kullanan restoran yöneticileri ayrıca en çok satılan yemekleri belirleyebiliyor ve böylece daha doğru siparişler alabildikleri gibi gereksiz yiyecek israfının da önüne geçebiliyorlar. Analitik çözümlerinin restoranlar için sağladığı bir diğer avantaj ise gün boyu restoranlarda doğru saatlerde, doğru sayıda personelin çalışmasını sağlayabilmesi ve yoğun saatlerde müşteri hizmetlerini geliştirebilme olanağını yaratması. Türkiye’de kimi kurumlar büyük veri yönetimi çözümlerine yönelmeye başlayarak bu konuda IBM gibi çözüm sağlayıcılarından destek alma taleplerini iletiyorlar. Bu talepleri analiz ettiğimizde görüyoruz ki, Türkiye’de büyük veriler için ihtiyaç duyulan çözümler dünya genelindeki diğer firmalardan çok da farklı değildir.

Büyük verileri doğru ve hızlı değerlendiren, iş kararlarına katan kurumlar avantaj sağlıyor
Büyük veri çözümlerini ve hizmetlerini almayı hedefleyen kurumlar güvenilir ve uçtan uça çözümler sunan, bu alanda kanıtlanmış sektör özelinde becerileri bulunan, değişimle aynı hızda kendini yenileyebilen çözümleri karşı tarafa sunabilen kurumlara yönelmeliler.
Ayrıca hemen her sektörde baş döndürücü bir rekabet ortamı yaşanmaktadır, firmalar bir yandan hızlı biçimde ürünlerini pazara sunarken, bir yandan da maliyetlerini düşürmeye ve kullanıcının beğenisini karşılamaya çalışıyorlar. İşte böyle bir ortamda büyük verileri doğru ve hızlı değerlendiren, iş kararlarına katan kurumlar avantaj sağlayacaktır. Öte yandan, bu büyük verilerin bir kısmı İnternet’te (Facebook, Twitter, Linkedin vb) herkese açık şekilde bulunmaktadır ve bir firma diğer rakip firmanın bilgilerine sanki medyada yer alıyormuşçasına kolaylıkla ulaşabilir ve değerlendirebilir.

IBM, müşterilerine olağanüstü deneyimler sunuyor
IBM’in yıllardır iş ve teknoloji dünyasında edindiği uzmanlığı ve kapsamlı yetenekleri, şirketlere artan verilerden sadece anlam çıkarmalarına yardım etmekle kalmayıp, verileri anlayarak en kısa sürede gerekli yanıtları verebilmelerini de mümkün kılacak bir konumdadır. IBM şirketlerin bir yandan maliyetlerini kontrol altında tutup temel sektör ihtiyaçlarını ve resmi mevzuatlara uyumluluk hedeflerini karşılamasına, diğer yandan verilerden en iyi şekilde yararlanmalarına yardımcı olacak, tamamen bütünleştirilmiş çözümlerle yazılımlar, sistemler ve olağanüstü deneyim sunar. Büyük veri (Big Data) kavramının nereye doğru gittiğini ve bu gidişatla ilgili bizim neler yapabileceğimiz konusunun en güzel cevabı Watson’dır. ABD’de Jeopardy Bilgi Yarışması’nda insan yarışmacıları yenen ve 1 milyon dolar ödül kazanan Watson, IBM bilim insanlarının muhtemel olanı hayal edip onu icat etme geleneklerinin en son örneğidir.
Aynı zamanda büyük veri alanında sunduğu yazılım ve hizmetleriyle IBM sektörlere özgü sorunları da ele almak açısından çeşitli fırsatlar tanıyan IBM’in bir başarı hikâyesidir. Aslında bu iyileştirilmiş IBM POWER işlemcili Watson süper bilgisayarın içerisinde, InfoSphere BigInsights, IBM Content Analytics yazılım ürünleri ve DeepQA araştırma yazılımı bulunmaktadır. Watson'ın insan dilinin anlamını ve bağlamını anlama ve karmaşık sorulara tam yanıtlar bulmak için bilgiyi hızlıca işleyebilme yeteneği, bilgisayarların insanlara iş dünyasındaki ve özel hayatlarındaki görevlerini tamamlamalarına yardımcı olma konusundaki dönüşümde önemli fırsatlar barındırmaktadır. Watson, kişilerin karmaşık sorulara hızla bilimsel yanıtlar bulabilmelerini sağlayacaktır. Bu teknoloji, sağlık hizmeti gibi alanlarda hastalığın doğru şekilde tanılanması, çevrimiçi ‘Self-servis’ yardım masalarını iyileştirme, turistlere ve vatandaşlara şehirler hakkında belirli bilgileri sağlama ve telefon aracılığıyla müşteri desteğini isteme gibi konularda ve daha pek çok alanda uygulanabilir. Kısacası aslında Watson, gelecekte verileri analiz ederek dünyanın, iş hayatının ve günlük yaşamların nasıl iyileştirilebileceğinin en önemli göstergelerinden biridir.
InfoSphere BigInsights ürünü Apache Hadoop bazlı bir çözümdür ve yüksek büyüyebilirlik sağlamaktadır. Ayrıca Netezza aygıtı (appliance) da Hadoop’la bütünleşik çalışabilecek özelliklere (Hadoop job’larını çalıştırabilme, verileri aktarabilme gibi) sahiptir.
Büyük veri, yalnızca kurumların içinde yer almıyor, aynı zamanda kurum dışı ortamlarda mesela sosyal medyada da bulunuyor. Facebook, Twitter, Linkedin gibi sosyal medya ortamları firmalara analiz edilecek “büyük veriler” sunmaktadır. Firmalar bu bilgileri analiz ederek, kurumların stratejilerine yön verebilirler; bu verilerin incelenmesi firmalara farklı ilişkileri yakalama ve stratejilerin daha sağlam temellere dayanarak belirlemesi fırsatı tanıyacaktır.
IBM, 2015 yol haritasını önümüzdeki 10 yılı şekillendirecek stratejik alanları göz önünde bulundurarak belirledi, bunların arasında büyük veri her çözümün odağında yer alıyor. İş analitiği çözümlerimiz şirketlerin endüstrilerini, işletmelerini ve işlerini daha iyi kavramalarına olanak tanıyor. Son beş yılda IBM analitik yeteneklerini geliştirmek üzere 26 satın almaya 14 milyar doların üzerinde yatırım yaptı. Geçtiğimiz aylarda IBM, i2 ve Algorithmics isimli iki iş analitiği firmasını satın aldığını açıkladı. i2; suç, dolandırıcılık, uyuşturucu trafiği, siber tehditler ve diğer tüm güvenlik tehditlerine ilişkin verileri analiz etme konusunda uzman bir analitik şirketidir. Algorithmics ise, bir finansal risk analitiği yazılım şirketidir. Özellikle de son küresel krizin ardından risk yönetimini güçlendirmek amacıyla, finansal pazarlarda düzenlemelerin arttığı bir dönemde bu satın alma daha da önem kazanıyor. IBM 2015 yılına kadar analitik alanında yaklaşık 20 milyar dolarlık yatırım yapmayı planlıyor. IBM’in Araştırma biriminde sadece analitik odaklı 8.000’in üzerinde iş danışmanı ve 200’den fazla matematikçi çığır açan algoritmalar geliştirmek üzere çalışıyorlar. IBM’in veri ve bilgi yönetimiyle ilgili 22.000’den fazla patenti bulunmaktadır.

Veriler büyük olunca, bilgi güvenliği daha da önemlidir
Bilgi güvenliği çok önemlidir, veriler büyük olunca, bilgi güvenliği daha da önemlidir. Her kurumun bunun için önlem alması gerekir. Diğer yandan büyük veri yönetimi için açık kaynak ‘Apache Hadoop’ bir çözüm olarak standart olmakla birlikte, kurumsal güvenliği sağlamak açısından IBM InfoSphere InfoSphere BigInsights türü yazılımları kullanmak gerekmektedir. BigInsights ürünü hem yönetim ekranlarına girişte, hem de önemli hadoop servislerine ulaşımda güvenlikli bir ortam sunmaktadır.

Intelart Genel Müdürü Serdal Mermer: “Doğru ve verimli bir şekilde yönetildiğinde büyük veri kavramı iş süreçlerini olumlu etkiliyor”
Çok çabuk büyüyerek karmaşıklaşan ve kontrolü gittikçe güçleşen bilgi dağarcığına “büyük veri” diyoruz. Bilişim teknolojilerine özel olarak kullanılan bu terim petabayt, eksabayt ve zetabayt ölçülerinde seyreden, muazzam bir veri büyüklüğünü tanımlıyor. Doğru ve verimli bir şekilde yönetildiğinde büyük veri kavramı iş süreçlerini olumlu etkiliyor çünkü analistler bu veri yoğunluğu vasıtasıyla resmin bütününü görebilme ve iş süreçlerini ona göre yönetebilme imkânına sahip oluyorlar. Ancak büyük veriyi gerektiği gibi kullanamayan kurumlar, hiç istenmeyen bir şekilde adeta bu veri yığınının altında kalabiliyor.
Büyük verinin kontrol edilmesi, kurumların kendi içlerindeki BT çözümleriyle pek kolay değil maalesef. Bunun için mutlaka bir çözüm ortağıyla çalışmaları gerekiyor. En temel strateji, bu konuda birlikte çalışılabilecek doğru çözüm ortağını bulabilmek.
Büyük veri üzerinden analiz/yorum ve anlık kurumsal manevralar yapabilmek için kullanılan karar destek teknolojilerinin, alışılagelmiş olanın çok dışında kabiliyetlere ihtiyacı var. SAP tarafından ortaya konan analitik çözümler ile işletmeniz genelinde görev alan birimlerin istedikleri bilgiye doğrudan ve anında ulaşmaları sağlanıyor. Ayrıca olgu temelinde yapılandırılan kaliteli bilgiye kolay erişim sağlanarak karar verme mekanizmalarında etkinlik kazanılması sağlanıyor.
Sanal olarak herhangi bir veri kaynağından elde edilen işlemlerle ilgili çeşitli keşifler yapabilen şirketler, analitik verilerin tümünü gerçek zamanlı olarak inceleme şansına sahip oluyor. Her türlü işlem gerçekleştikçe operasyon verileri bellek-içinde yakalanıyor ve esnek görünümler analitik bilgileri düşünce hızıyla açığa çıkarıyor. Analizi tüm işletme çapında yaymak için de analitik modellere kurum içi ve kurum dışı tüm veriler ilave edilebiliyor. Böylece kurumlar gerekli parametreleri bir araya getirdikten sonra, bu parametreler ne kadar çok ve farklı olursa olsun, iş süreçlerini bir bütün olarak değerlendirebiliyor.

Büyük veri yönetimi aslında tek başına düşünüldüğünde bir fark yaratma unsuru değildir
Tüm dünyada bugüne kadar üretilen her türlü verinin yüzde 90’ı, sadece son iki yılda üretilmiştir. Bu durum büyük veri yönetiminin kurumlar için hayati önem taşıdığını göstermektedir. Bununla beraber büyük veri yönetimi aslında tek başına düşünüldüğünde bir fark yaratma unsuru değildir. Büyük veri yönetimi “gerçek zamanlı” ifadesi ile yan yana geldiğinde kurumsal fayda elde etmek mümkün olacaktır. Yani esas fayda, “gerçek zamanlı büyük veri’ yönetiminin gerçekleştirilmesiyle ortaya çıkacaktır.
Dünya genelinde büyük veri yönetimine bakışı çok net özetleyebilecek ve genel kabul görmüş beklenti şudur: “Büyük veri yönetimini gerçekleştirebilen kurumlar 2-5 yıllık vade aralığında ve muhtemelen 2015 yılında tüm finans metriklerinde rakiplerinden yüzde 20 daha iyi performans gösterecekler.” Bu bakış açısı ile bakıldığında, hiçbir kurum yapacağı herhangi bir yatırım ile bu kadar kısa vade içerisinde bu büyüklükte bir getiri elde edemez. Bu açıdan, dünya genelinde kurumlar büyük veri yönetimine ciddi önem vermekte ve yatırım yapmaktadır.
Türkiye açısından bakıldığında ise, artık küreselleşen ekonomide kurumların farkındalıkları hemen hemen her yenilikçi konuda dünyanın çok gerisinde değil. Kurumsal reflekslerini geliştiremeyen hiçbir işletmenin rekabetçi pazarda uzun dönemde var olamayacağı yadsınamaz bir gerçek. Türkiye de bankacılık, sigorta, perakendecilik, elektrik-gaz-su dağıtımı gibi sektörlerde büyük veri yönetimi, şu anda yönetici masalarının üzerinde ilk sırada durmakta. Tüm bu sektörler, kendilerine destek olabilecek teknolojilerin arayışına da şimdiden başlamış durumdalar. Çağımızın en büyük gücü olan bilgiyi doğru kullanmanın ne kadar büyük faydası varsa, yanlış kullanmanın da o kadar büyük zararı var. Büyük verinin doğru çözümlerle yönetilmemesi içinden çıkılmaz sorunlara yol açabilir, işleri arapsaçına döndürebilir ya da çok ciddi güvenlik tehlikelerine zemin oluşturabilir.

Masraflarınızı azaltın
Elsys Grup’un bir parçası olan şirketimiz Intelart’ın büyük veri konusunda çok önemli çalışmaları var. Büyük veri hacimlerinin analizi sırasında BT masraflarını düşürme ihtiyacı duyan herkese yönelik olarak SAP tarafından geliştirilen bellek-içi teknoloji ürünleri ile esnek, çok amaçlı ve veri kaynağındaki teknolojik geçişlerden etkilenmeyen bir yapı ortaya koyabiliyoruz. SAP HANA (High Performance Analytic Appliance) adı verilen bu çözüm yelpazesi altında üretilen büyük hacimli ayrıntılı bilgiler temelinde operasyonlar analiz edilebilir hale geliyor. Ayrıca, Apache Hadoop yazılımımızla serbest lisans altında her tür veriye duyarlılık gösteren dağıtık uygulamaları desteklemek mümkün oluyor. Uygulamaların binlerce bilişsel bağımsız bilgisayar ve petabayt boyutunda veriyle aynı anda çalışmasını sağlayan bu sistemin, asıl olarak Google tarafından geliştirilen harita ve dosya uygulamalarından yola çıkılarak hazırlandığını belirtmek isteriz.

Sanal duvar bilgi güvenliği
Büyük veri yönetiminde belki de en temel endişe, sanal duvar bilgi güvenliği savından gelmektedir. Bugüne kadar yeterince gelişim gösteremeyen sunucu, bulut gibi teknolojinin arkasındaki engel de yine bilgi güvenliği endişeleridir. Oysa büyük veri yönetimi aynı zamanda bir veri birleştirmesi anlamına gelmektedir. Farklı veri adacıklarında bulunan verilerin güvenlik denetimleri de farklılaşmaktadır. Büyük veri yönetimi, kurumlar için bilgi güvenliği açısından ciddi bir fırsat yaratmaktadır. Çoklu, dağınık sistemlerde bulunan verilerin bilgi güvenliği aslında çok daha zor ve karışıktır. Dikkatli bir teknoloji adaptasyonu ile büyük veri yönetimi, kurumların bilgi güvenliği yaklaşımlarını normal konuma getirmeleri açısından önemli bir fırsattır.

Microsoft Türkiye Uygulama Platformu Ürün Yöneticisi Gökben Utkun: “Büyümenin asıl kaynağı yapısal olmayan verilerden geliyor”
Son dönemlere kadar kurumların karar verme mekanizmaları genellikle ilişkisel veri tabanlarında saklanan yapısal veriye dayanıyordu. Ancak bu verinin dışında çok büyük değer taşıyan ve son döneme kadar çok fazla kullanılmayan ve yapısal olmayan büyük miktarda veri de bulunuyor: Bloglar, Sosyal medyada paylaşılan veriler, muhtelif algılayıcılardan toparlanan veriler, Web log’lar gibi.
Diğer yandan pek çok endüstri eğilimi geleneksel veri yönetimi, iş zekası platform ve araçları üzerinde baskı meydana getiriyor. Bunları şöyle sıralayabiliriz:
Artan veri hacmi: Dünya çapında yıllık veri hacmindeki büyüme yüzde 59 ve büyümenin artarak devam etmesi bekleniyor. Bu büyümenin merkezinde hem geleneksel hem de yeni veri kaynakları yatıyor. IDC sayısal kayıtların bu sene sonunda 1,2 milyon Zetabytes (1021 bytes)'a ulaşacağını, önümüzdeki on sene içinde de 44 katına çıkacağını tahmin ediyor.
Artan veri ve analiz karmaşıklığı: Bir önceki paragrafta bahsettiğimiz büyümenin asıl kaynağı yapısal olmayan verilerden geliyor. Yapısal olmayan verilerin yaklaşık yüzde 80'nin değersiz olduğuna dair mit ise gerek arama motorlarının gerekse de e-ticaret yapan kurumların tıklama verisini takip ederek ulaştıkları başarı sonrasında çürütülmüş görünüyor. Asıl gereksinim ise yapısal ve yapısal olmayan verinin saklanması, beraberce analiz edilerek, veri madenciliği işlemlerine tabi tutulması.
Farklılaşan ekonomi ve gelişmekte olan teknolojiler: Bulut bilişim ve donanım çözümlerinin kolaylıkla ulaşılabilir, fiyatları uygun emtia haline dönüşmesi veri işlemlerinin ekonomisini temelden ve radikal bir biçimde değiştirdi. Fiyatı uygun donanım çözümleri, ‘Hadoop’ gibi yeni nesil dağıtık paralel işlem altyapıları ile tamamlanarak, muazzam büyüklükteki verilerin işlenmesinin üstesinden gelinmesini sağlıyor. Özetle "Büyük veri" dediğimiz zaman, Petabytlar mertebesine ulaşan yapısal ve yapısal olmayan veriden, gerçek iç görü elde edecek teknolojileri, eğilimleri ve yaklaşımları kurumlara sunabilmeyi kastediyoruz.

Kurumlar, ihtiyaçlarını ve ellerinde var olan yapısal ve yapısal olmayan verileri saptamalı, elde edebileceği faydaları öngörmeye çalışmalılar
Öncelikle büyük veri çözümleri için kurumlar, ihtiyaçlarını ve ellerinde var olan yapısal ve yapısal olmayan verileri saptamalı, elde edebileceği faydaları öngörmeye çalışmalılar. Bu faydayı üretebilmek için uygun teknoloji alt yapısı ve danışmanlık yatırımlarının yapılmasını gerektiriyor.
Öte yandan büyük veri çözümleri için kurumların ölçeğinden ziyade ihtiyaçlarını temel almak daha doğru sonuçlar doğurabilir. En başta açıkladığımız gibi büyük veriye dahil olan önemli ölçüdeki yapısal olmayan veriler (Net günlükleri, sosyal medyada paylaşılan veriler, muhtelif algılayıcılardan toparlanan veriler, Web log’lar gibi) pek çok kurum tarafından, kurumun büyüklüğünden bağımsız olarak üretiliyor. Burada araştırılması gereken kurumun öngörüsü ve hedefleri doğrultusunda yapısal olmayan bu veriyi kendisi için ne zaman bilgiye dönüştürmek istediği. Yine her konuda olduğu gibi burada daha hızlı davranabilen ve yeni teknolojilerden daha hızlı çözüm üretebilen kurumlar, bugünün rekabetçi pazarında daha önde oluyorlar.

Kurumlar için anlamlı sonuçlar
Büyük veri ile asıl amaç yapılandırılmamış verilerin dönüştürülmesi odağından ziyade hem yapılandırılmış verinin hem de yapılandırılmamış verinin beraberce analiz edilmesi ve veri madenciliği işlemlerine tabi tutularak kurum için anlamlı sonuçlar ve iç görü elde edilmesi olmalıdır. Bu sayede kurumlar aşağıdaki sonuçlara ulaşabilirler:

  • Kullanıcıların davranış ve tepkilerini çevrimiçi anlamak
  • Eğilimler ve en bilinen konuları sosyal medya analizleri ile anlayabilmek
  • Reklam kampanyalarını doğru hedeflemek ve iyileştirmek

Pratik uygulamalar gelişme döneminde
Büyük veri konusunun pratik uygulamaları hem dünyada hem Türkiye’de gelişme döneminde. Tüm kurumlar bu alanın açtığı potansiyelin farkındalar, hangi endüstrilerde, hangi çözümlerle cevap verilebileceğini biliyorlar ancak uygulamalar konusunda örnekler biraz daha kısıtlı.

Doğru strateji ve analiz yöntemleri
80’e 20 kuralı, büyük veri için de rahatlıkla uygulayabileceğimiz bir kural. Büyük verinin aslında bizim için anlamlı bilgi sağlayabilecek kısmı, toplamda bahsedilen verinin yüzde 20’sinden elde ediliyor. Bu açıdan bakıldığında doğru strateji ve analiz yöntemleri ile bu bilgiyi elde etmek, büyük verinin saklanması ve transferi gibi konular tehdide konu olabilecek ana başlıklar. Burada çözüm arayan kurumların, sunulan çözümlerin: İhtiyaca aslında karşılık vermeyecek geleneksel bir yaklaşım mı, yoksa gerçekten ihtiyaç duyulan teknolojiyi pratik bir çözümle sunan yeni bir yaklaşım mı olduğunu dikkatle incelemeleri gerekiyor.
Büyük veri bilgi güvenliği konusuna gösterilen özenin artmasını gerektirecek. Yapısal verinin güvenliği ile ilgili tüm gereksinimler, büyük veri altında sınıflandırdığımız yapısal olmayan ya da yarı yapısal veriler için de geçerli olacak.

Büyük veri desteğimizi ve uçtan uca müşterilerimiz ile buluşturuyoruz
Bizim “Büyük Veri” konusuna yaklaşımımız üç temel noktaya odaklanıyor.

  • İlk hedefimiz, Hadoop yapısını çok daha fazla BT çalışanı ve yazılım geliştirici için ulaşılabilir konuma getirmek.
  • İkincisi, Hadoop yapısını kurumsallaştırmak. Diğer bir deyişle kurumsal ve iş kritik beklentileri karşılayacak şekilde güvenlik, tahmin edilebilir ve iyi bir performans, kurumların seçimine göre kurum içi, bulut ve/veya hibrid senaryoları desteklemek.
  • Üçüncüsü de, bütün kullanıcıların ‘Büyük Veri’nin üreteceği iç görüden nerede olursa olsun faydalanmasını sağlamak.
    Microsoft ailesi olarak, 2011 Ekim ayının ikinci haftasında ABD’de gerçekleşen SQL PASS Summit’de Apache Hadoop ile “Büyük Veri” desteğimizi ve uçtan uca bütün resmi kapsayan yol haritamızı paylaşmıştık. Buna göre:
  • SQL Server ve SQL Server Parallel Data Warehouseiçin Hadoop konnektörünü sunduk.
  • Windows Server ve Windows Azure için Hadoop tabanlı dağıtık servisler. Böylece kurumlar hem kurumlarında, hem de bulutta barındırdıkları Hibrid BT altyapılarında da Hadoop tabanlı analitik çözümleri kullanabilecekler.
  • Microsoft İş Zekası çözümleri ile Hadoop’u bütünleştiriyoruz, böylece kullanıcıların tanıdık ara yüzlerden kopmadan yeni teknolojilerden, etkileşimli bir biçimde faydalanmalarını sağlıyoruz.
  • Hortonworks ile stratejik iş birliğimiz bulunuyor.
  • Hadoop topluluğu ile yakından çalışarak teknolojinin gelişimine katkıda bulunuyoruz.

Netaş Teknolojiden Sorumlu Genel Müdür Yardımcısı Necmi Ön: “Büyük veri yatırımı yapılması kaçınılmaz oluyor”
Günümüzde, sosyal medya platformları, mobil telefonlar, arama motorları, kredi kartı ile yapılan alışverişler gibi daha pek çok bileşen, aslında bir veri üretim fabrikasını besleyen damarlar haline geliyor. Farklı kaynaklardan elde edilen veriler birbiriyle ilişkilendirilerek değerlendirildiğinde, bir bireyin neredeyse tüm alışkanlıklarına ulaşmak mümkün oluyor. Ancak bu denli bir veriyi işlemek oldukça zor ve maliyetli oluyor. Zira büyük bir kısmı e-posta, resim dosyası, video, müzik dosyası gibi geleneksel veri tabanlarında saklanmayan bu ham verilerin, yeni dosya formatlarının da ortaya çıkmasıyla beraber, konu gittikçe daha karmaşık bir hale geliyor. Son dönemlerde ortaya çıkan yasal düzenlemelerle, İnternet üzerinde yer alan kullanıcıların erişim kayıtlarının tutulması ve ihtiyaç anında hızlıca erişilebilir olması zorunlu hale geldi. Sağlık ve finans sektöründe ise hukuki olarak sayısal bilgilerin geçmişe dönük saklanması ve yedeklenmesi gerektiğinden, özellikle bu sektörler açısından büyük veri yatırımı yapılması kaçınılmaz oluyor. Büyük veri, iş süreçlerinin tüm bileşenlerini gözleyebilme ve kontrol edebilme kapasitemizi artırıyor, bu sayede yönetilebilirlik de aynı oranda artıyor ve etkinleşiyor. Büyük veriyi, yaratıcı çözümlere giden yolun başlangıcı olarak kabul edebiliriz. Büyük veri, hedeflerin ölçülebilir olmasını sağlıyor. Büyük veriyi değerlendirmeye karar veren kurumlar, eğer topladıkları veriyi iyi analiz edebiliyor ve bilgiyi zamanında kullanabiliyorlarsa, pazarda büyük rekabet avantajları elde ediyor.

İhtiyaca yönelik altyapı
Şirketlerin, öncelikle neye ihtiyacı olduğunu doğru analiz ederek buna uygun bir altyapı kurması gerekiyor. Bu karar alınırken, kurumlar gelecekteki büyümelerini, hangi verileri depolayacağını, işleyeceğini ve analiz edeceğini göz önünde bulundurmalı. Verinin depolanarak veri madenciliği yöntemiyle ya da gerçek zamanlı olarak değerlendirileceği kararı, yapılan işin kapsamına göre değişebilir. Büyük verinin değer yaratması, yani toplanan verilerin şirket için değer taşıyan, anlamlı bir hâle getirilmesi önem taşıyor. Değer oluşturulamadığı sürece, büyük veri anlam taşımayan bir veri yığını olarak kalacaktır.

İş dünyası yüzyıllardır sürekli bir dönüşüm yaşıyor
Tarım toplumu, endüstri toplumu ve son olarak da bilgi toplumuna giden yolda rekabetçi olmak, daha hızlı üretmek, sevk etmek, daha ucuza mal edip daha yüksek kârlarla satış yapabilmek için pek çok araç kullanıldı ve kullanılıyor. Geçmiş tecrübelere bakarak, bilgi üretemeyen, ürettiği bilgiyi saklayamayan, iletemeyen, işleyemeyen, yorumlayamayan hiç bir kurumun rekabetçi olabilmesi ve sürdürülebilir bir iş modeli yaratması mümkün görünmüyor. Dolayısıyla sürdürülebilirlik bilginin ne kadar değere dönüştürülebildiğine, teknolojinin ne kadar etkin olarak kullanılabildiğine bağlı oluyor. Tüm organizasyonlar için en temel fonksiyonlardan biri olan hızlı karar almanın yanı sıra, alınan kararın uygulanması ile ilgili süreçler de göz önüne alındığında bilişim teknolojilerinden beklenti büyüyor. Bilginin yönetimi hiç olmadığı kadar kritik ve artık metin temelli verinin yanı sıra çoğul ortam temelli verinin de işlenmesi gerektiğinden, çok daha zor. Bununla birlikte, büyüyen pazara rağmen kârlılıklar her sektörde tehdit altında; rekabet edememe ya da birleşmeler nedeniyle oyuncu sayısı azalıyor. Bu da kurumları daha fazla büyütüyor, oyun büyüklerin oyunu haline geliyor. Büyük kitleleri hedefleyen kurumlar, süreçlerini devamlı güncellemek, değişen pazar ve rekabet koşullarına göre yenilemek ve tüm kaynaklarını en uygun şekilde kullanmak zorunda. Kurumlar, tüm bu zorlukların üstesinden gelebilmek için, gelişen teknolojinin sunduklarını değerlendirip kullanmalı, iş süreçlerine adapte edip, bilgi temelli şirketlere dönüşmek durumunda. Büyük veri yönetiminde karşılaşılabilecek tehditler arasında, verinin üretilme hızının yüksek ve çeşitliğinin çok fazla olması, kullanılan veri saklama teknolojilerinin tam olarak bu ihtiyacı karşılayamaması ve bu büyüme hızını yakalayamaması sayılabilir. 2020 yılına doğru, sayısal verinin inanılmaz büyüklüklere erişeceği öngörülüyor. Her ne kadar veri saklama ve işleme maliyetleri gün geçtikçe azalsa da, aslında yeni veri daha hızlı arttığından, veriyi saklamanın ve işlemenin toplam maliyeti artıyor. Bunu da firmalar için farklı bir tehdit unsuru olarak sayabiliriz.

NetApp Türkiye Ülke Müdürü Behçet Yumrukçallı: “2020’lerde toplam sayısal verinin 35Zettabyte olması bekleniyor”
Son dönemlere kadar verilerin büyük bölümü yapısal verilerden oluşuyordu. Ama özellikle sosyal medyanın çığ gibi büyümesi yapısal olmayan verilerin oranını günden güne arttırdı. Bu durum doğal olarak şirketleri de etkiledi. Kurumların karar verme mekanizmaları genellikle yapısal verilere dayanırken, kurumlar bu verinin dışında değer taşıyan ve de büyük miktarda yapısal olmayan verinin de bulunduğunu fark etti.
2020’lerde toplam sayısal verinin 35Zettabyte olması bekleniyor. IDC istatistiklerine göre 2020’de ulaşılacak veri miktarı, 2009’un 44 katı olacak. Bu büyümenin asıl kaynağı yapısal olmayan verilerden geliyor. Büyük verinin üretilme hızı çok yüksek ve gittikçe artıyor. Mobil telefonlar, İnternet’teki yapılan her tıklanma adeta veri üreten birer fabrikaya dönüşmüş durumda. Tabii ki, daha hızlı üreyen veri, o veriye muhtaç olan işlem sayısının ve çeşitliliğinin de aynı hızda artması sonucunu doğuruyor. Üretilen verinin yüzde 90’ı yapısal değil ve her yeni üretilen teknoloji, farklı formatlarda veri üretebiliyor.
Dolayısıyla şirketler için büyük veri, artık mutlaka gündemlerinde en ön sıraları alması gereken bir konu. Kurumların veri arşivleme, işleme, bütünleştirme, saklama ve benzeri teknolojilerinin bu büyüklüklerdeki veri hacmi ile nasıl başa çıkacağının şimdiden kurgulanması kritik önem taşıyor. Büyük veri birçok şirket için artık yeni bir kategoriyi temsil ediyor. Şirketler geleneksel yöntemlerle Büyük veriyi yönetemeyeceklerini gördüklerinden süreçler ve yöntemler anlamında yeni arayışlara yöneliyorlar. Bu yeni arayışlarda önemli beklentiler olarak ise rekabete katkı, çevikliği artırma gibi başlıklar öne çıkıyor.
Şirketlerin öncelikle kendine şunu sorması gerekiyor: Büyük veri konusunda bir stratejim, bir öngörüm, bugün ve geleceğe dair bir planım var mı? Eğer yoksa, büyük veri stratejilerini ivedilikle oluşturmaları ve büyük veri konusunda adım atmaları gerekiyor. Analistler büyük veri platformunun kendisinden önce gelen veri depolama, veri madenciliği ve kurumsal zekâ gibi konulardan çok daha farklı bir kavram olduğuna dikkat çekiyor. Dolayısıyla, özellikle şirketlerin bilişim yöneticileri, teknoloji liderleri ve teknoloji ekiplerinin büyük veri konusunun tamamen ayrı yönetilmesi gereken bir konu olduğuna dikkat etmeleri gerekiyor. Büyük veri konusunda başarı elde etmek ve sağlıklı bir büyük veri yönetimine ulaşmak için şirketler BT-Bilişim Teknolojileri organizasyonlarında hem şirket kültürü bağlamında hem de geleneksel bilgi yönetimi pratiklerinde önemli değişiklikler yapmalılar.
Büyük veri konusunda önemli bir başlık da büyük verinin değer yaratmasıdır. Büyük verinin veri üretim, işleme ve analiz katmanlarından sonra kurum için bir artı değer yaratıyor olması çok önemlidir. Büyük verinin karar veriş süreçlerinize anlık olarak etki etmesi, doğru kararı vermenizde hemen elinizin altında olması gerekiyor.
Diğer yandan büyük veri birçok şirketin hem sunucu hem de depolama altyapısı ve bilgi yönetimi mimarisinde önemli değişiklikler gerektiriyor. BT yöneticileri; BT platformlarını her daim genişleyen büyük veri okyanusuna karşı hazırlıklı tutmalılar. Büyük veri platformunun birbirinden tamamen farklı sistemlerin erişebileceği veriyi sağlaması gerektiğinden dolayı genişletilebilir ve ölçeklendirilebilir bir çalışma ortamı gerektirdiği unutulmamalı.
Önemli bir konu da çalışanların büyük veri konusundaki eğitim ve bilinç düzeyidir. BT organizasyonlarının büyük bir kısmında büyük veri konusunda çalışabilecek eleman eksiği bulunduğunu görüyoruz. Şirketler bu noktaya özellikle dikkat etmeliler, yatırımlarını bu açığı kapatmak üstüne yapmalılar.
Büyük veri alanındaki yatırımlarda şirketler, büyük veri ihtiyaçları için tasarlanmış, esnek ve ölçeklenebilir depolama birimlerini tercih etmeliler. Yatırım planlarında birçok ölçütü göz önünde bulundurmak gerekir. Depolama birimlerinin seçiminde temel nokta sadece veri kapasitesi olmamalıdır. Veri tiplerine göre uygun donanım veya yazılım çözümleri de göz önünde bulundurulmalıdır.

İş verimliliği
Yapılandırılmış ve yapılandırılmamış verinin yönetimi, kurum için verilerden anlamlı sonuçlar ve öngörüler çıkarmak için çok önemlidir. Büyük veri yönetimi sayesinde şirketler, kullanıcıların davranış ve reaksiyonlarını anlayabilir, eğilimler ve popüler konular analizlerle kavranabilir. Kampanyalar doğru hedeflenip iyileştirilebilir. Yapısal veri ile yapısal olmayan verinin bütünleştirilerek şirketlerin müşterileri ile ilgili çok daha uygun, yerini bulan ve daha önce yapılması mümkün olmayan satış ve bağlılık kampanyalarının yapılabilmesi mümkündür.
Sektör temelinde, sektörlerdeki iş verimliliği ve müşteri tatmini artırılabilir. Örneğin sağlık sektöründe büyük veri yönetimi sayesinde tedavi süreci, tedavi başarı durumu, hasta geçmişi gibi bilgilerin daha etkin şekilde kullanılmasıyla hizmetlerin başarısı yükseltilebilir.
Büyük veride asıl amaçlardan biri yapılandırılmamış verilerin dönüştürülmesi odağından ziyade hem yapılandırılmış verinin hem de yapılandırılmamış verinin beraberce analiz edilmesidir. Büyük verilerin analizi ile iş yapma şeklinizi ve stratejinizi etkileyebilecek noktaların, detayların bulunması hedefleniyor. Büyük veri araçları kullanılarak yapılandırılmamış veriyi işleyip, yapılandırılmış veri şekline dönüştürerek iş zekâsı sistemlerine, veri ambarlarına ve veri tabanlarına aktarmak mümkün. Bu sistemlere aktarılan veri bilinen araçlar ile analiz edilerek şirketlerin önemli kararlar almaya ve iş stratejilerini belirlemeye yardımcı oluyor.
Günümüzde büyük veri çözümlerine yönelimdeki önemli etkenlerden biri mevcut çözümlerin yavaşlığı ve yetersizliği oluyor. Stratejik bir karar vermek üzere, müşteri davranışlarıyla ilgili rapor isteyen bir yöneticinin raporu saatler sonra alması artık kabul edilebilir bir süreç olmadığını takdir edersiniz. Büyük veri bu noktada daha karmaşık raporların, daha kısa sürede alınabilmesi olanağını sunuyor. Büyük veri yönetiminde bir diğer etken de artan verinin depolanması ve işlenmesinin günden güne artan bir maliyetinin olması. Büyük veri yönetimi maliyet avantajı da getirmektedir.
Faydalara dair bizden bir örnek vermek gerekirse; NetApp, dünya çapında binlerce müşterisinin depolama sistemlerinden telemetri verisi toplamaktadır. Autosupport (ASUP) dediğimiz bir sistemle bu veriler toplanıyor. ASUP’un dataset’i oldukça büyük bir kapsamda yaklaşık 25 milyar kayıt gibi büyük bir rakam söz konusu. Geleneksel tekniklerle bu veri paketi üzerinde bir sorgulama süreci haftalarca sürebilirken, ASUP verisi sorgulamasını Hadoop üzerinden yapmak 10,5 saat gibi etkileyici sonuçlar ortaya çıkarıyor.

Rekabete karşı avantaj
Her ölçekte şirket artık büyük veriye yönelmek zorunda bulunuyor. Dünyada ve Türkiye’de finans, perakende, telekomünikasyon, e-ticaret gibi alanlarda büyük veri zaten uzunca bir süredir yatırım yapılan bir konu. Sağlık sektörü gibi sektörler büyük veri konusunda en üst sıralara çıkmak için sırada bekliyor. Ürettikleri ve kullandıkları verinin tipine, boyutuna bakmaksızın her türlü şirket büyük veri kavramını ve bununla ilgili gelişmeleri yakından takip etmelidir. Bu kavramın günümüz ekonomilerinde rekabete karşı avantaj sağlanabilecek en önemli araçlardan biri olduğu dünyada ve Türkiye’de de kabul görmüş durumdadır.
Veri depolama, BT pazarı içinde hali hazırda büyük bir paya sahip. IDC’nin yaptığı bir araştırmaya göre, veri depolama kapasitelerinde Türkiye’de 2013 yılının sonuna kadar her yıl ortalama yüzde 40’lık bir büyüme bekleniyor. Özellikle büyük veri ve bulut bilişimin öneminin gün geçtikçe artmasıyla, sektörün içinde bulunduğu bir büyüme eğilimi var. Biz de NetApp Türkiye olarak bu iki konuya; Bulut Bilişim ve Büyük Veriye çok önem veriyoruz. Bu verdiğimiz önemi düzenlediğimiz etkinliklere de taşımaya dikkat ediyoruz. Örneğin, geçtiğimiz aylarda gerçekleşen NetApp İnovasyon Zirvesi 2012’yi ‘Büyük’ Düşünenler Buluşuyor olarak adlandırmış, ‘Büyük’ kelimesini özellikle öne çıkarmıştık. Türkiye’de de firmaların büyük veri konusunda büyük düşünmeleri gerektiğine inanıyoruz.
Türkiye’de artık ölçeği ve içerisinde bulunduğu sektör fark etmeksizin tüm kurumlar, doğru ve verimli karar alabilme, yığınsal verileri bilgiye dönüştürmek ve bu verilerin avantajlarından faydalanma gibi konulara büyük önem veriyorlar. KOBİ’lerin de en az büyük ölçekli şirketler kadar yoğun bilgi akışı içerisinde doğru kararlar almaya ihtiyaç duyuyor.
Ülkemiz ekonomisinde büyük bir paya sahip KOBİ’lerin ülkelerin gelişimi için de iş yapış şekillerini, kaynak kullanımlarını değiştirmeleri ve yeni fırsat alanlarına yönelmeleri gerekiyor, bunlardan biri de büyük veridir. Büyük veri konusunda ülkemiz genelinde şirketlerin konuya yeterince hazırlıklı olmadığını görsek de şirketlerin ihtiyaçları ve rekabette öne çıkabilmeleri için bu durumun hızla değişeceğini düşünüyoruz.

Verinin korunması
Büyük veri yönetiminde karşılaşan sıkıntıların ve tehditlerin en başında güvenlik konusu geliyor. Verinin korunması noktasında firmaların özellikle dikkatli olması gerekiyor. NetApp olarak biz de, büyük veri konusundaki ARGE çalışmalarımızla müşterilerimizin güvenliğini hep en üst seviyeye çıkarmak için uğraşıyoruz.

Müşterilerimize küresel iş ortaklarımızla bütünleşik çözümler sunuyoruz
NetApp, büyük veriye, sadece donanımsal çözüm sağlamak yerine, toplam çözüm oluşturmaya ve küresel iş ortakları ile bütünleşik çözümler sunmaya çalışıyoruz. Yapısal olmayan verilerin artması ile birlikte, nesne temelli veri depolama ihtiyacı öne çıkmaya başladı. Özellikle yapısal olmayan bu verilere çeşitli kurumların uygun gördüğü “metadata” bilgileri eklenerek saklanması ve bu ek bilgilere göre sorgu ve analiz yapılabilmesi, kurumlara çok ciddi çeviklik getiriyor, karar mekanizmalarında hız sağlıyor. Biz bu noktada ‘StorageGrid’ adını verdiğimiz, yazılım ve donanımı bütünleşik çözümümüzle öne çıkıyoruz. Konu da büyük veri olduğu için, yüzlerce PetaByte ve milyarlarca nesne ye kadar ölçeklenebilen son derece güvenilir ve hızlı alt yapılar oluşturuyoruz. Ayrıca son zamanlarda bilinirliği gün geçtikçe artan ve açık kaynak kod yazılımı olan, yapısal olmayan büyük veriler üzerinde çok yüksek performanslı ve yatay bir şekilde ölçeklenebilen HADOOP teknolojisi için tamamen bütünleşik veri depolama alt yapıları oluşturuyoruz ve uçtan uca HADOOP çözümünün oluşturulması için danışmanlık hizmetleri veriyoruz. Aynı şekilde, alt yapı oluşturulmasını HPC (High Performance Computing) ortamları için de gerçekleştiriyoruz. Bütün bu bahsettiğimiz çözümlerde, veri depolama donanımı olarak, ürün ailemizin yeni üyesi olan E-Series platformunu kullanıyoruz. NetApp E-Series E5400 ve E2600 çözümlerimiz gelişmekte olan büyük bant genişliğine ve büyük veri pazarına paralel olarak müşterilerimizce kullanılmaktadır. NetApp E5400, sürekli artan genişlik ihtiyaçlarını adreslerken, parçalı esneklik için yeni bir standart sunmaktadır. NetApp E5400 bir kurumun başarım ve kapasite ihtiyaçlarına etkin bir çözüm sunan, yüksek kapasiteli bir depolama sistemidir. NetApp E2600 depolama sistemi ise esneklik içeren yüksek performanslı bir üründür. Modüler tasarımı büyüyen başarım ve kapasite ihtiyaçlarını karşılayacak yapıdadır.

Oracle İş Zekası Bölgesel Satış Direktörü Ali Rıza Kuyucu: “Toplanan verilerden anlam çıkarmak için analitik yetenekleri gelişmiş olan kişilere yatırım yapmaya başlandı”
Büyük veri içerisinden çıkarılabilecek iş faydaları daha belirgin hale geldikçe, şirketler daha önceden saklamadıkları detayda verileri saklamayı değerlendiriyorlar. Bir yandan değişik şirket bölümleri, toplanan verilerden anlam çıkarmak için analitik yetenekleri gelişmiş olan kişilere yatırım yapmaya başladı ve analitik uygulamalar iş süreçlerinin parçası haline gelmekte. Dolayısıyla, hem teknik anlamda çok daha büyük hacimli, hızlı değişen ve hızlı güncellenen verileri saklamak için şirketler yatırım yapmayı düşünüyor, hem de iş bölümlerinde bu verileri analiz edebilecek farklı sorumluluklar tanımlanıyor. Yurtdışında “Data Scientist” adı verilen roller, şirketlerde önemli hale gelecek gibi görünüyor.
Şirketlerin “büyük veri” den elde edebilecekleri iş faydalarını çok iyi tanımlamaları gerekiyor. Bu tanımlamaları yaptıktan sonra, verilerin hangi ortamda tutulacağı ve ne şekilde aktarılacağı konusu önem arz ediyor. Burada, donanım ve yazılımın beraber sunan çözümler, şirketlerin işini hayli kolaylaştıracaktır. Aynı zamanda, yapılacak analizlerin değerlendirilmesi ve iş süreçlerine bütünleştirilmesi, farklı tarzda ve yetenekte insan kaynağı ihtiyacını da doğuruyor, bu da şirketlerin stratejileri açısından önem vermeleri gereken bir konu.
Büyük veri ile gerçekleştirilen analizler, şirketlere verimlilik, karlılık, müşteri memnuniyeti ve müşteri kazanımı gibi alanlarda ciddi katma değer sağlama potansiyeline sahip.
Büyük veri kavramı ve kullanım örnekleri öncelikle ABD’den kaynaklandı. McKinsey’in Mayıs 2011 tarihli raporuna göre, ABD’de sağlık sektöründe 300 milyar dolarlık yıllık kazanç sağlama potansiyeli bulunmakta. Yine ABD’de müşterilerin coğrafi bilgilerini kullanarak 600 milyar dolarlık ek gelir etme potansiyeli var. Dolayısıyla değişik sektörlerde maliyet kazanımı ve gelir artışı potansiyelinin mevcut olduğunu söyleyebiliriz.

Türkiye’de kurumlarda üretilen veri hacmi, ABD’ye göre daha ufak boyutlarda olabiliyor
Özellikle ABD’de İnternet üzerinden üretilen verinin hacmi çok büyük boyutlara ulaşmış durumda. Türkiye’de kurumlarda üretilen veri hacmi, ABD’ye göre daha ufak boyutlarda olabiliyor. Ancak verilerden çıkarılabilecek sonuçlar ve faydalar, Türkiye ve dünyada çok farklılık göstermeyecektir. ABD, bu uygulamaları daha önce hayata geçirmeye başlamış durumda, bu uygulamaların kısa süre içerisinde Türkiye’de de hayata geçirileceğini söyleyebiliriz.
Her projede olduğu gibi, projenin iş faydalarının ve geri dönüşünün çok iyi hesaplanması, beraber çalışılacak çözüm sağlayıcının da iyi seçilmesi önemlidir. Yapılacak yatırımda iş bölümlerinin projeyi sahiplenmesi ve desteklemesi de projenin başarını etkiler. Bu ölçütlerde olabilecek problemler, şirketler için projenin başarısı açısından tehdit oluşturabilir.

Hazır ve hızlı çözümler
Büyük veri çözümleri verinin toplanması, ayıklanması, tarihsel derinlikte saklanması ve analizi süreçlerinden oluşmaktadır. Büyük veri teknolojileriyle çözülebilecek iş ihtiyacı olan kurumların bu bütünleşik altyapıyı sunabilecek çözüm sağlayıcılarını değerlendirmelerini önerebilirim. Oracle olarak “Engineered Systems” ailesi içerisinde sunduğumuz “Big Data Machine” çözümü, Hadoop ve R gibi açık kaynak uygulamaları tek bir şemsiyede çok güçlü bir donanımla beraber sunmaktadır. Böylece kurumlar, değişik bileşenleri bir araya getirme zorluğunu yaşamadan hazır bir çözümü kullanabilmektedir. Ayrıca “Big Data Machine” içerisinde toplanıp ayıklanan veriler, “Exadata” çözümüne aktarılıp saklanabilmektedir. Çözümün büyük veri analizi parçası olan “Exalytics” ile birlikte son kullanıcılar, hızlı analiz imkanı ile birlikte büyün hacimli verileri esnek bir şekilde analiz edebilirler.
Büyük verinin saklanması, bu verinin güvenliğinin de önemini bir kat daha artırıyor. Çok önemli bilgiler içeren bu verilerin doğru güvenlik tanımlamalarıyla kullanıcılara açılması çok önemli hale gelmekte. Özellikle büyük veriden değişik algoritmalarla ayıklanarak ilişkisel veri tabanına atılan bilgilerin güvenliği en az operasyon verileri tabanlarındaki kadar önem arz ediyor. Bu tarz çözümlerde bilgi güvenliğinin dikkate alınması en önemli ölçütlerden biri haline geldi.

SAP Türkiye Çözüm Yöneticisi Mustafa Aydoğdu: “Günümüzde pek çok iş zekâsı projesinde analizlerin, verilerin bir gün önceki değerleri üzerinden yapıldığını gözlemlemekteyiz”
Birkaç yıl öncesine kadar kurumların karar verme mekanizmaları genellikle ilişkisel veri tabanlarında veya OLAP yapılarında saklanan yapısal veriye dayanıyordu. Ancak bu verinin dışında çok büyük değer taşıyan ve yapısal olmayan büyük miktarda veri de bulunmaktadır. İnternet günlükleri (blog), sosyal medyada paylaşılan veriler, muhtelif algılayıcılardan toparlanan veriler, elektronik postalar, fotoğraflar, videolar gibi… Müşteri davranışları ve iş süreçleriyle ilgili katma değeri yüksek bu bilgiyi rekabetçi avantaja çevirebilen şirketler gerek müşterinin sesini dinleme, gerekse pazardaki değişikliklere istinaden öngörülebilir bir şekilde aksiyon alma konusunda fark yaratmaktadır.
Geleneksel teknolojiler kullanılarak orta büyüklükteki verinin bile analiz edilmesi saatler sürebilmektedir. Bu nedenle, günümüzde pek çok iş zekâsı projesinde analizlerin verilerin bir gün önceki değerleri üzerinden yapıldığını gözlemlemekteyiz. Bu anlamda, büyük hacimli ve karmaşık veriyi depolamak, anlamlı hale getirerek verimlilik artışı sağlamak ve rekabette bir adım öne çıkmak için bu büyük veriye tam anlamıyla hükmetmek gerekiyor. Günümüzde şirketler rekabet avantajı sağlamak için hızlı/esnek davranmak zorundalar. Bu anlamda, SSD‘lerin disk dünyasında yeni bir boyut açtığı bir gerçek ama büyük veriler için disk teknolojisinin yetersiz kaldığını tüm dünya kabul etmiş durumda. Şirketler özellikle kendi sektörlerinde referansı bulunan çözümleri tercih etmeli. Piyasaya yeni çıkan çözümler bulunduğundan, belirli bir olgunluğa ulaşmış olanlar değerlendirilmeli. Örneğin; Almanya’nın en önemli bankalarından Deutsche Bank’ın SAP HANA’yı kullanması, bu sektördeki pek çok banka için bu çözümün kullanılabilir olgunlukta olduğunun bir ispatıdır.

Veri madenciliği en fazla katma değeri yaratıyor
Yapısal ve yapısal olmayan büyük miktardaki verinin beraberce analiz edilerek, veri madenciliği işlemlerine tabi tutulması, bu alanda en fazla katma değeri yaratıyor. B2C şirketlerde müşterilerin davranış ve reaksiyonlarını gerçek zamanlı analiz etmek, eğilimler ve popüler konuları sosyal medya analizleri ile anlayabilmek ve kampanyaların iyileştirilmesi gibi pek çok kullanım alanları, büyük veriyi bir külfetten ziyade bir fırsat olarak görmemizi sağlıyor. Örneğin, e-ticaret yapan kurumların ‘Web mining-Net madenciliği’ yöntemleri sayesinde çok büyük miktardaki tıklama verisini analiz ederek, pazarlama karmasını buna göre uyum sağlaması sonucunda önemli kazanımlar elde ettiğini gözlemliyoruz. Aynı şekilde, telekomünikasyon sektöründe müşteriye özel gerçek zamanlı ‘next-best-action’ların’ belirlenmesi ve bellek içi sosyal ağ analizleri de önemli rekabetçi avantajlar sağlayacaktır. Milyarlarca CDR kaydının analiz edilmesiyle, özellikle numara taşımayla daha da ivme kazanan müşteri kayıp oranlarının düşürülmesi mümkün olacaktır.
Perakendecilik sektöründe ise, stok takibinin gerçek zamanlı yapılması müşteri memnuniyetinde ve rafta bulunabilirlik oranında önemli kazanımlar yaratacaktır. Bankacılıkta gerçek zamanlı şube ve müşteri kârlılığı yapılabilmesi daha etkin karar alma mekanizmalarını beraberinde getirecektir. Yine şube raporlarında sağlanacak veri güncelliği ve sorgu hızı, operasyon mükemmelliğini olumlu yönde etkileyecektir.
Türkiye’de büyük veri genellikle finans ve telekom sektörlerinde bulunuyor. Türkiye her ne kadar yeni teknolojileri ilk adapte eden ülkelerden olmasa da, bu iki sektör teknolojiye hızlı yatırım yapmakta. Bugün dünyadakine paralel olarak Türkiye’deki finans ve telekom sektörleri, büyük veri için yatırımlarını yapmaya başlamış durumdalar.

Analitik düşünce yapısına sahip eleman eksiği bulunuyor
Büyük verinin analizi sonucunda ortaya çıkan sonuçların ne denli önemli olduğu biliniyor. Bu değerli sonuçları kurumların içerisinde anlamlı hale getirebilecek personel bulunmaması, ya da bu personeli barındırmak için gereken maliyet oldukça fazla. Günümüzde BT organizasyonlarının çoğunda büyük veri konusunda çalışabilecek analitik düşünce yapısına sahip eleman eksiği bulunmaktadır. McKinsey, sadece ABD’de 2018 yılına kadar istatistik yöntemler konusunda ve veri analiz teknolojileri gibi alanlarda çalışan 140 bin ile 190 bin arasında yeni “veri bilimcisine” ihtiyaç duyulacağını belirtiyor. Bununla birlikte, BT bölümlerinde veri yönetimi üzerine çalışan mevcut çalışanların yaşanacak değişimle birlikte eğitime ihtiyaç duyacağıysa aşikâr.
Ayrıca, 2015 yılına kadar şu anki veri depolama merkezlerinin yüzde 85’inin ileri düzey veri yönetimi konusundaki ihtiyaçları karşılamada yetersiz kalacak. Bu da birçok şirketin hem sunucu hem de depolama altyapısı ve bilgi yönetimi mimarisinde önemli değişiklikler gerektiği anlamına gelmektedir.

Anlamlı öngörüleri hızlı şekilde müşterilerimize sunuyoruz
SAP olarak Predictive Analyis on HANA çözümümüz sayesinde bellek içi veri madenciliği yaparak büyük veriden anlamlı öngörüleri hızlı bir şekilde çıkarmaya olanak sağlayan çözümler sunmaktayız. Örneğin, Türkiye’de disk teknolojisi kullanarak verilerini depolayan büyük bir bankada, SAP HANA ile yaptığımız çalışmada 800 milyonun üzerinde kayıt üzerinden yapılan karışık analizlerin 0,2 saniyede gerçekleştiğini gözlemledik. Bu çalışmada rekabet anlamında çok olumlu geri bildirimler aldığımızı da söyleyebiliriz. Gerçek zamanlı analiz ve bellek içi teknolojilerin bir arada kullanıldığı bu çözümde daha memnun müşteri kitlesi ve daha kârlı bir şirket oluşturmak mümkün hale gelmektedir.
Büyük veriyi yönetebilmek için merkezi bir veri mimarisine sahip olmak, bu işin ilk adımlarından bir tanesi. Birden çok kaynaktaki verinin güvenliğini sağlamak yerine, tek bir merkezde toplanmış olan büyük verinin güvenliğini sağlamak elbette ki daha kolay olacaktır. Fakat verilerin büyümesi ile birlikte, veri her geçen gün daha değerli hale geliyor ve izinsiz erişim sağlamak isteyenler de artıyor. Exabayt büyüklüğündeki verileri şifrelemek giderek zorlaşıyor. Kurumlar için hayati önem taşıyan bilgi güvenliği için, büyük veri mimarisi hazırlanırken, en baştan bu sorunların adreslenmesi gerekiyor.

Teradata Türkiye Veri Ambarı Danışmanı Senem Değer: “Tüm liderler aslında güvenle karar verebilmeleri için bilginin kontrolünün şart olduğunu biliyorlar”
Günümüzün bilgi ekonomisinde tüm liderler aslında güvenle karar verebilmeleri için bilginin kontrolünün şart olduğunu biliyorlar. Zor olan ise neyin elde tutulacağının bilinmesi, ikilemlerin önlenmesi ve ortaya çıkarılan içeriğin en iyi şekilde kullanılabilmesi gerekiyor.
Kötü karar verebilme riski, bugün “hızla katlanarak artan verinin” içeriğinin yeterince anlaşılamaması ve bunun sonucunda uygulanabilir kararlar ortaya çıkmamasına dayanıyor. “Büyük veri” olgusu bugün şirketlerin içinde olup olmamayı seçebilecekleri bir konu değil. Bu aslında ‘büyük para’ diye adlandırabileceğimiz pazarları ve onun getirdiği fırsatlar içeriğini ifade ediyor.
Büyük veri çözümlerinin iş yaşamında oyunun kuralını değiştireceğini öngörüyoruz. Geleneksel yaklaşımda "transaction" yani gerçekleşmiş işlemleri analiz ederken, büyük veri ile daha işlem gerçekleşmeden davranışları analiz etme şansına sahibiz.
Şu anda büyük veri dediğimiz veri aslında teknolojik evrim ile gelen ve önceden var olmayan yeni kaynaklardaki veri. Dolayısı ile bugün olmasa da yarın mutlaka bu verinin analiz edilmesi kaçınılmaz olacak. Şirketler, bu çalışmalara ilk başlayan olarak lider olma fırsatına sahipler. Ancak büyük veri sadece boyut olarak büyük veriyi kapsamıyor. Hızla büyüyen, çok çeşitli ve hacimsel olarak da büyük olan bu verinin içinde kaybolmamak adına küçük parçalarla çalışmalara başlamak, böylelikle katma değerini çok daha hızlı almak oldukça önemli. Ayrıca bizce fark, bu verinin çok daha fazla kullanıcıya açılıp erişilebilir hale getirilmesinde yatıyor. Bu yeni veri, bugün ‘Data Scientist’ (veri bilimci) denilen, sadece veriyi değil iş ihtiyaçlarını da bilen analistler tarafından erişilebilir olduğunda ortaya çıkabilecek faydalar çok daha fazla.

360 derecelik öngörü
Geleneksel veri yapıları üzerinden yapılan analizlere, yapılandırılmamış verilerin de eklenmesi ile kurumlara daha önce sahip olmadıkları öngörü ve planlama imkanı sağlanabiliyor. Müşteriye 360 derecelik bir öngörü ile yaklaşılmasına olanak veriyor. Örneğin; yapılandırılmış geleneksel veri analizleri ile “müşteri neyi, ne zaman, ne kadara almış; ne sıklıkla alıyor; başka ürünü alma eğilimi nedir?” sorularına cevap bulunabiliyor. Ancak, “Web sitesinde başka hangi ürünleri inceledikten sonra bu ürünü seçmiş, bir reklama yoksa bir tavsiyeye dayanarak mı ürünü almış?”, “Satın alma kararını olumlu ya da olumsuz etkileyen şartlar nelerdir?”, “Üründen sosyal medyada bahsetmiş mi?” sorularının yanıtı, yeni ortaya çıkan ve yapılandırılmamış diye tanımladığımız veri kaynaklarında yatmaktadır. Mevcut veriler ile bu yeni kaynaklardaki verileri birleştirerek yanıt alınabilecek soruların sayısı çok daha fazladır. Bu yeni analiz imkanlarının kurumları rakiplerine göre daha rekabetçi yapacağını söyleyebiliriz.
Bunlara ek olarak, MapReduce gibi büyük veri konusu ile gelişen, yazılımda olarak devrim sayılacak yeni yöntemlerle, aynı donanımla daha fazla veri işleme imkanının sağlanması da önemli bir maliyet avantajı olarak ortaya çıkıyor. Diğer teknolojik eğilimlerden farklı olarak, Türkiye’de de büyük veri analizi yatırımlarının dünyadaki gelişmelerin paralelinde ilerleyeceğini, hatta bazı sektörlerden öncü firmaların çıkabileceğini tahmin etmekteyiz.

Doğru analiz ve doğru yönetim
Bu noktada sanırım iki nokta öne çıkıyor: İhtiyaçların doğru analiz edilmesi ve bu ihtiyaçların doğru şekilde yönetilmesi. Analiz aşamasında öncelikle hangi veriye daha çok ihtiyaç duyulduğu, bu verinin ne şekilde ve nasıl temin edileceğinin iyi tanımlanması gerek. Ardından, “Bu veriyi verimli bir şekilde kullanabilmek için gerekli araçlar nelerdir?”, “Verinin analizi için nasıl kaynaklar, nasıl yetenekte kişilere ihtiyaç var?” sorularının yanıtlanması gerekli. Aksi takdirde, büyük veri içinde kaybolmak mümkün.
Diğer bir önemli nokta da büyük veri ile mevcut verinin bütünleştirilmesi. Elinizdekilerin bir parçasını kullanarak yapacağınız analizlerin, tümünü kullanarak elde edebileceğinizden çok daha azını vereceğini unutmamak gerekiyor. Dolayısı ile büyük verinin ayrı ve tek başına yeterli olduğu hatasına düşmemekte fayda var. Geleneksel veri de hâlâ çok değerli bilgiler içermekte.
Son olarak söyleyebilirim ki, güvenlik de dikkat edilmesi gereken bir diğer unsur. Verinin ve veriye erişeceklerin hızla arttığı bir ortamda veri paylaşımını güvenli halde sunmak için de gerekli tedbirler alınmalı.
Veri patlaması diğer tüm sektörlerde olduğu gibi güvenlik için de bir gerçek. Ve bilgi güdümlü tüm diğer kurumlarda olduğu gibi, büyük veri getirdiği zorlukların yanında yeni fırsatlar da sunuyor. Artık şirketlerin önceden bilinemeyen tehditleri tanımlamak, savunmalarını güçlendirmek ve daha etkili risk yönetim programları geliştirmek için eskisinden çok daha fazla ve çeşitte veri erişilebilir durumda. Ben bu noktada bilgi güvenliği için büyük verinin oldukça faydasını göreceğimize inanıyorum.

MPP mimarisi
Teradata’nın kurulduğu günden bu yana kavramı, büyük veriler ile derin analitik çözümler sunmaktır. Bugün sıkça duyduğumuz MPP mimarisi, Teradata veri tabanının 33 yıldır yapıtaşını oluşturmaktadır. Yapısal olan büyük hacimli verilerde Teradata’nın deneyimi ile ilgili birkaç önemli örnek verecek olursak şunları söyleyebiliriz: 1996 yılında 11 Terabyte ile dünyanın en büyük veri ambarı, 2004 yılında Wal-Mart’ın 423 Terabyte’lık veri ambarı, 2008 yılında 5 kurumda 1 ila 5 Petabyte arasında ve 35 kurumda 100 Terabyte’ın üzerindeki veri ambarları. Bugün ise eBay’daki 10+ Petabytelık veri ambarını sayabiliriz.
Teradata, farklı iş ihtiyaçlarına göre iyileştirilmiş platform ailesi, veri ambarına özel olarak tasarlanmış veri tabanı, veri madenciliği konusunda geliştirilmiş çözümleri, sektörlere özel çözümleri ile veri ambarı modelleri, analitik kampanya yönetimi ve büyük veri yönetimi çözümleri ile geniş bir ürün ailesine sahiptir.
Teradata'nın iyileştirilmiş veri ambarı platformları veri tabanı yazılımı, sunucu ve veri depolama ünitesinin en iyi performans sağlayacağı şekilde tasarlanmış, yüzde 99,5 yüksek erişilebilirlik sunan ve veri yüklemeye hazır sistemlerdir. Böylece müşterilerimiz birinci günden BTibaren veri ambarlarını oluşturmaya ve kullanmaya başlamaktadırlar. 
Teradata bugün geldiği noktada 6 farklı veri ambarı platformu sunmaktadır. Bu sistemler GB'lar mertebesinden 186 PB'a kadar ölçeklenebilen ve her biri farklı amaçlar için iyileştirilmiş sistemlerdir.
Data Mart Appliance: Test ve geliştirme ortamları ve küçük ‘data mart’ ihtiyaçları için konumlandırdığımız platform.
Extreme Data Appliance:
Çok büyük verisi olan kurumlarda 186 PB'a kadar ölçeklenebilen fiyat iyileştirilmiş bir platform. Bu ürün ile büyük boyuttaki veriler sadece depolanmakla kalmayıp aynı zamanda sorgulanabilir de olmaktadır.
Extreme Performance Appliance: Sektörde tek, sadece SSD diskten oluşan çok yüksek performanslı veri ambarı sistemimiz.
Data Warehouse Appliance: Bugün ülkemizde en çok konumlandırdığımız, analitik sorgular için iyileştirilmiş, yüksek performanslı kurumsal veri ambarı sistemimiz.
Active Enterprise Data Warehouse: Karışık iş yüklerini başarıyla yöneten on binlerce kullanıcının çok yoğun sorgu çalıştırabildiği, SSD ve HDD disklerden oluşan, her parçasını müşterilerimizle birlikte, ihtiyaçlarına göre tasarlayabildiğimiz Teradata’nın amiral gemisi. 
Aster Data Appliance çözümümüz ise son zamanların gözde konusu "Big Data" çözümümüz. Aster'i sektördeki diğer çözümlerden üstün kılan nokta ise, "Big Data" konusunda basitlik ve yüksek performansı uygulama mantığında birleştiren tek çözüm olması. Aster, SQL diliyle ‘Map-Reduce’ özelliklerini son kullanıcılara açarak, yapılandırılmamış büyük veri üzerinden çok kolay bir şekilde analizler yapılmasını sağlıyor. Bu noktada, basitlik, kolay yönetim ve yüksek performans konusunda sektörde tüm çözümlerimizin haklı bir ünü olduğunu belirtmek isterim. 
LinkedIn, Barnes&Noble ve MySpace Aster'i kullanan referanslarımız arasındalar. Şu an 1 PB (PetaByte)'ın üzerinde canlı veriyle çalışan Aster kurulumu mevcut. Aster Data Appliance, yatay büyüyebilen MPP (Massively Parallel Processing) mimarisine sahip bir çözüm. Aster'i farklı kılan başka bir özellik ise ilişkisel veriyi de yönetebiliyor olması. Aynı sorgu içerisinde hem yapısal hem de yapısal olmayan veri üzerinden bağıntı gerçekleştirilebiliyor ve böylece daha bütünsel ve zenginleştirilmiş bir analiz sunabiliyor.
Teradata'nın veri ambarı platform çözümleri 33 yıllık bir geçmişe sahip. Teradata kendi profesyonel hizmetler birimi aracılığı ile ilk günden bugüne müşterileri için sayısız başarılı kurumsal veri ambarı sistemleri oluşturmuştur. Bu bilgi birikimin doğal bir sonucu olarak, Teradata her sektöre özel veri modelleri ve hazır analitik uygulamaları ile müşterilerinin veri ambarı yolculuklarında hızlı ve kanıtlanmış iş zekâsı çözümleri de sunmaktadır. Sektöre yönelik çözümlerimizin günümüzün hızlı rekabetçi ortamında kurumlar tarafından daha fazla ilgi ile karşılandığını görmekteyiz. Ülkemizdeki veri ambarı ve iş zekâsı çevrelerinde bu çözüm odaklı yaklaşımın artmasını memnuniyetle karşılıyoruz

VMware OEM Akdeniz Bölgesi Satış Müdürü Yakup Börekcioğlu: “İnternet üzerinden uygulamalara erişimi iş akış sürecinin temeline koyan şirketler süreçlerini daha hızlı ilerletiyorlar”
İnternet’i ve İnternet üzerinden uygulamalara erişimi iş akış sürecinin temeline koyan şirketler süreçlerini daha hızlı ilerletiyorlar. Özellikle çoklu ofisli veya geniş coğrafyada hizmet veren firmalarda verinin ortak noktadan kullanımı, istenilen ekipmandan ulaşılabilirliği şirketlerin hızlı karar almasını sağlıyor.
Şirketlerin öncelikle veri ve iş süreçlerini gözden geçirmeleri gerekiyor. Bunun akabinde görüntü yönetiminin, kimin, hangi hakla, hangi veriye ulaşacağının belirlenmesi gerekiyor. Büyük veriye her yerden her cihazdan ulaşmanın en hızlı ve etkin yolu sanallaştırma. Bu nedenle sanallaştırmayı veri merkezlerinin temeline koymaları gerekiyor. Uygulamaların sanallaştırılması da ikincil adım. Son aşama ise veri bütünlüğüne hangi yöntemlerle ulaşılacağının belirlenmesi. Bunun için de son kullanıcı ürünlerinin, (telefon, tablet bilgisayar, PC) sanallaştırılması gerekir. Büyük veri yönetimi, hızlı karar vermeyi ve süreçlerin hızlandırılmasını sağlar. Şirketlerin hızlı ve dinamik olması, ortak iş yaptıkları diğer şirketlerle de süreçlerinin adaptasyonunu hızlandırır.
Buradaki en önemli tehdit, güvenlik ve verinin yönetimde kullanılacak olan yazılımların ortak özelliklerinin olmamasıdır. Bu nedenle güvenlik katmanının yönetimi önemlidir.

Büyük veriye ulaşmanın temeli sanallaştırmadır
Sanallaştırmanın getirmiş olduğu esneklik, uygulamaların sanallaştırılması ve son kullanıcı cihazlarının sanallaştırılması, büyük verinin daha etkin kullanılmasını sağlıyor. Bu aşamada sektör lideri sanallaştırma yazılımları ile VMware tüm bu istekleri tek başına sağlıyor.
Ayrıca bilgi güvenliği, büyük verinin en önemli katmanlarından biridir. VMware olarak uygulamaların diğer uygulamalardan ayrıştırılmasını sağlayarak, sanal sunuculardan oluşan güvenlikli ortamlar kurulmasını, böylelikle aynı işlemci üzerinden verilen sanal servislerin ayrıştırılmasını sağlıyoruz. Bunun dışındaki güvenlik ölçütlerini ise beraber çalıştığımız diğer güvenlik firmaları ile sağlıyoruz.