Tezler
(2016) ABDURRAHMAN BAYRAK (MS)
İHA uygulamaları için gömülü nokta bulutu işleme
Danışman: PROF. DR. MEHMET ÖNDER EFE
[Özet]
Bu tez çalışması üç boyutlu topolojisi önceden bilinmeyen ortamlar için evrimsel algoritmaları kullanan FPGA tabanlı sentezlenebilir bir İHA bölgesel rota planlayıcısı uygulaması sunmaktadır. Rota planlama algoritması olarak evrimsel algoritmaların bir sınıfı olan genetik algoritma seçilmiş ve genetik algoritmanın bütün birimleri tekil bir FPGA cihazı üzerinde paralel olarak gerçekleştirilmiştir. Bu çalışma için Artix 7 ailesine ait Nexys 4 FPGA cihazı kullanılmış ve donanım dili tasarımının sentezi ve analizi için Xilinx Vivado 2015.4 yazılımı kullanılmıştır. Bölgesel rota planlayıcısı iki uçuş kipine sahip olacak şekilde tasarlanmıştır: Sabit Yükseltili Uçuş Kipi ve Serbest Yükseltili Uçuş Kipi. Tasarlanan FPGA tabanlı bölgesel rota planlayıcısı %62 FPGA kaynak tüketimi ile istenen görevi gerçekleştirebilmektedir. Rota planlama yaklaşımı, LIDAR sensörü tarafından elde edilen nokta bulutu ile oluşturulan iki farklı üç boyutlu bilinmeyen ortamda test edilmiştir. Sonuçlar hem genetik algoritmanın İHA'lar için etkili bir rota planlama yaklaşımı olduğunu hem de FPGA cihazlarının uçuş planlama için çok uygun platformlar olduğunu göstermiştir.
(2016) EZGİ ERTÜRK GÜLER (PhD)
Yazılım kusur kestirimi eklentisinin esnek hesaplama yöntemleri ile tasarımı ve geliştirimi: kapsamlı metrik değerlendirilmesi
Danışman: DOÇ. DR. EBRU SEZER
[Özet]
Yazılım kusur kestirimi (SFP), yazılım modüllerinin belli özelliklerine göre ilgili modülün kusur riski taşıyıp taşımadığının belirlenmesi işlemidir. Yazılım modüllerinin kusur eğilimli olup olmamasının belirlenmesi, yazılım projeleri için önemlidir çünkü bu sayede detaylı bir şekilde test edilmesi, yeniden yazılması veya düzenlenmesi gereken modüller önceden tespit edilebilir. Bu tez çalışmasının temel hedefi, SFP görevinin yazılım geliştirme yaşam döngüsü içinde pratik olarak yer alabilmesini sağlamaktır. Bu hedefe ulaşabilmek için ilk olarak, SFP problemi için yeni bir çözüm yöntemi olarak Bulanık Çıkarsama Sistemleri (FIS) önerilmiştir. FIS yöntemi, SFP için ilk defa bu tez kapsamında kullanılmıştır. FIS yöntemi; problemleri, bulanık mantık teorisini temel alarak modelleyen kural tabanlı bir yaklaşımdır. Modelleme yaparken uzman görüşünden yararlanması ve geçmiş etiketli veriye ihtiyaç duymaması sayesinde herhangi bir araca kolayca dönüştürülebilir. FIS yönteminin SFP alanında geçerliliğinin ispatlanması amacıyla farklı metrik kümeleriyle farklı veri kümeleri üzerinde çeşitli deneyler gerçekleştirilmiştir. Bu deneylerin sonucunda FIS yönteminin SFP problemi için güvenilir bir çözüm yöntemi olduğu kanıtlanmıştır. FIS yönteminin yanında, SFP problemine yeni bir çözüm olarak Uyarlamalı Sinirsel Bulanık Çıkarsama Sistemi (ANFIS) kullanımı önerilmiştir. ANFIS yöntemi, Yapay Sinir Ağları (ANN) ve FIS yöntemlerinin avantajlarını bir araya getiren hibrit bir yaklaşımdır. ANFIS yönteminin SFP problemine uygun olup olmadığının anlaşılabilmesi amacıyla karşılaştırmalı deneyler yapılmıştır. Bu deneylerde ANFIS yönteminin ürettiği performanslar, ANN ve SVM yöntemlerinin aynı koşullar altında ürettiği performanslarla karşılaştırılmıştır. Deney sonuçlarına göre, en iyi performansı ANN ve en kötü performansı SVM göstermiştir. ANFIS ise SVM'den çok daha iyi sonuçlar vermiştir ve ANN ile yarışabilecek düzeydedir. Yani yapılan bu çalışmayla ANFIS yönteminin SFP problemi için kullanılabilecek uygun bir yöntem olduğu ispatlanmıştır. SFP problemi için yeni çözüm önerilerinin sunulmasının ardından SFP görevinin çevik yaklaşımlarla geliştirilen yazılım projelerinin yazılım geliştirme aşamasına dâhil olabilmesi için yinelemeli bir SFP metodolojisi önerilmiştir. Bu metodolojiye göre; etiketli veri mevcut değilken SFP için FIS gibi kural tabanlı yaklaşımlar kullanılır, etiketli verinin birikmesinin ardından yazılımın her bir versiyonu için geçmiş versiyonlarla eğitilen veri güdümlü yaklaşımlar SFP görevini yerine getirir. Önerilen yinelemeli metodoloji için tercih edilen veri güdümlü yaklaşımlar ANN ve ANFIS yöntemleridir. Bu yinelemeli SFP metodolojisi, PROMISE veri deposundan seçilen çeşitli yazılım versiyonlarına ait veri kümeleri üzerinde yapılan çeşitli deneylerle test edilmiştir. Deney sonuçlarına göre, yinelemeli SFP metodolojisi başarılı bir yaklaşımdır. Yani SFP görevi, bu yaklaşıma uygun olarak yerine getirilirse, kod geliştirme aşamasına paralel bir şekilde çalışabilir ve proje ekibine geliştirmenin her anında yardımcı olabilir. Önerilen metodolojinin pratik olarak kullanılabilir olduğunun ispat edilmesi amacıyla bu metodolojinin bir eklenti olarak gerçekleştirimi yapılmış ve Eclipse geliştirme ortamına entegre edilmiştir.
(2016) GULSHAT KESSİKBAYEVA (PhD)
Kazakça ve türkçe dilleri arasında örnek tabanlı ve istatistik model destekli makine çeviri sistemi
Danışman: PROF. DR. İLYAS ÇİÇEKLİ
[Özet]
Örnek Tabanlı Makine Çeviri Sistemi tercümenin paralel metinler kullanılarak elde edildiği benzerlik bazlı makine çeviri sistemi yöntemlerindendir. Makine çeviri sistemlerinin birden fazla çeşitleri mevcuttur ve tercümenin kalitesini arttırma adına metotlardan bir kaçının güçlü yönleri birleştirilerek hibrit yaklaşımların oluşturulması mümkündür. Genellikle hibrit yöntemlerin iki ana kısmından bahsedilir ki, bunlar güdümlü ve bilgi kısımlarıdır. Bu çalışma Kazakça ve Türkçe dilleri arasında temelde Örnek Tabanlı Çeviri Sistemi sahip bir hibrit sistemdir. Her iki dilin biçim bilgisinin analizi ve ardından biçim bilgisi işlemcisinin oluşturulması sistemin önemli bileşenlerinden biridir. Biçim bilgisi işlemcisi kelimelerin yüzeysel biçiminden sözcük bazlı analiz biçimini elde etmek için ve aynı zamanda tercüme sonuçlarının sözcük bazlı analiz biçiminden yüzeysel kelimelerin elde edilmesinde kullanılır. Başka bir deyişle, tercüme kalıpları sözcük bazlı analiz seviyesinde tutulur ve işlenir. Yani, kaynak dilde sözcük bazlı analiz seviyesinde verilen cümle hedef dilde sözcük bazlı analiz seviyesinde sonuç üretir. Sistemde kullanılan paralel metinler yüzeysel kelime bazlı örnekler cinsinde tutulur ve her biri ilgili biçim bilgisi işlemcisinden sonra öğrenme modülüne yüklenir. Sonuç olarak Kazakça ve Türkçe dilleri arasındaki tercüme kalıpları sözcük bazlı analiz seviyesinde öğrenilir. Öğrenilen kalıpları kullanarak sistem çift yönlü tercüme yapmaktadır. Sistem tarafından üretilen sonuçlar örnek kalıpları açısından güvenirlilik faktör değerine göre sıralanmaktadır. Diğer yandan sistem kaynak dil açısından istatistik model desteklidir. Bu üretilen sonuçların sadece örnek kalıpları açısından değil de aynı zamanda istatistiksel cümle olasılığının hesaplanması ve böylece kaynak dil açısından geçerliliğin göz önünde bulundurmasıdır. Bu da sonuçların kaynak dilde geçerli ve daha düzgün tercüme sonucu anlamına gelmektedir. Bu çalışmada hibrit örnek tabanlı çeviri sistemin kullanılmasındaki temel amaç kaynak dilde öncesinden hesaplanmış istatistik modelleri kullanarak daha geçerli ve düzgün sonuç elde etmektir. Bahsedilen hibrit sistem önerisinin nedenlerinden birisi tek dilde erişebilen kaynakların paralel işlenmiş metinlerin elde edilmesinden daha kolay ve olanaklı oluşudur. Deney sonucu olarak ta tatmin edici neticelere ulaşıldığından örnek tabanlı çeviri sistemlerin istatistiksel modellerle desteklenmesi istinat edilebilir bulunmaktadır.
(2016) HANDAN GÜRSOY (MS)
FPGA tabanlı otomatik kontrol sistemleri geliştirme
Danışman: PROF. DR. MEHMET ÖNDER EFE
[Özet]
Bu tez çalışmasında paralel işlem yapma ve yeniden programlanabilir mimariye sahip olmasından dolayı sıkça tercih edilen Alan Programlanabilir Kapı Dizileri (FPGA) üzerinde denetleyici geliştirilmesi hedeflenmiştir. Denetleyici olarak yıllardan beri üzerinde çok fazla çalışma yapılmış oransalintegral- türevsel (PID) ve gürbüz bir denetim yaklaşımı olan kayan kipli denetim (KKD) seçilmiştir. Nominal modeli bilinen ve RPP yapısına sahip silindirik robot manipülatörü üzerinde PD ve KKD denetleyicileri uygulanmıştır. Bu denetleyiciler Matlab/Simulink ortamında geliştirilip Xilinx Sistem Üreteci desteği kullanılarak Xilinx Artix-7 XC7A100T FPGA kartında sentezlenebilecek şekilde modellenmiştir. Tasarım doğrulama ve yörünge denetimi açısından sonuçların incelenmesi için Matlab/Simulink ve Xilinx Sistem Üreteci üzerinde simülasyon sonuçları incelenmiştir. Ayrıca sonuçları FPGA üzerinde görebilmek ve kaynak tüketim sonuçlarını elde edebilmek için Vivado 2014.4 üzerinde Yüksek Hızlı Tümleşik Devre Donanım Tanımlama Dili (VHDL) kullanılarak kodlanmış ve tasarım sentezlenmiştir. Gürbüzlük ve yörünge denetimi açısından sonuçların başarılı şekilde elde edildiği gözlemlenmiştir.
(2016) ÖMER MİNTEMUR (MS)
Araçsal tasarsız ağlarda saldırıların analizi
Danışman: DOÇ. DR. SEVİL ŞEN AKAGÜNDÜZ
[Özet]
Araçsal tasarsız ağlar, mobil tasarsız ağların bir kolu olup, gün geçtikçe gelişmektedir. Araçsal tasarsız ağlar, araçların birbirleriyle haberleşmesini sağlayan bir mobil tasarsız ağ çeşididir. Araçlar birbirleriyle haberleşerek trafik ve yol bilgisi gibi can güvenliği için önemli olan mesajları birbirleriyle paylaşabilirler. Bu avantajlarının yanı sıra, bu ağın en büyük dejavantalarından birisi güvenliktir. Araçların çok yüksek hızda seyrettiği ve topoloji değişkenliğinin çok olduğu bir ağ olduğu için söz konusu ağ, saldırılara çok açıktır. Bu çalışmada, mobil tasarsız ağlarda da sıkça kullanılan AODV yönlendirme protokolü ve coğrafi pozisyon verilerini kullanarak paket iletimini gerçekleştiren GPSR yönlendirme protokolünün, iki farklı haritada ve farklı saldırılar altında performansları analiz edilmiştir. Benzetimlerde 35 araç kullanılmış ve bir benzetim 200 saniye gerçekleştirilmiştir. Saldırıların etkisini daha iyi görebilmek için, her tekrarda, farklı bağlantı dosyaları kullanılmıştır. İki farklı protokolde de, karadelik saldırısı, sel saldırısı, paket düşürme saldırısı ve sahte bilgi saldırısı ii gerçekleştirilmiştir. Yapılan benzetimlerde saldırgan sayısı sürekli olarak artırılmıştır. Benzetimlerde araç yoğunluğu fazla olan ve fazla olmayan, iki farklı harita (Münih şehir merkezi ve İstanbul Yolu) kullanılmıştır. İki protokol de, paket iletim oranı, verimlilik, uçtan uca gecikme ve ek yük metrikleriyle analiz edilmiştir. Benzetim sonuçlarında görülmüştür ki, saldırısız ortamda AODV yönlendirme protokolü paket iletimi metriği bakımından, GPSR yönlendirme protokolünden iki haritada da daha iyi sonuç vermektedir. Saldırı olduğu durumlarda ise, AODV yönlendirme protokolü en fazla karadelik saldırısından etkilenmiş olup, GPSR yönlendirme protokolü her saldırıdan neredeyse eşit oranda etkilenmiştir. Sonuç olarak, yapılan benzetimlerde iki protokolün de saldırılara açık olduğu görülmüş ve iki protokolün de saldırılara karşı gelişmiş bir tespit sistemine sahip olması gerektiği sonucuna varılmıştır.
(2016) MURAT ORUÇ (MS)
Nesne-tabanlı yazılım modellerinde benzer tasarım yapılarını tespit eden çizge madenciliği yöntemi
Danışman: YRD. DOÇ. DR. FUAT AKAL
[Özet]
Nesne-tabanlı tasarım kalıpları gerçek-dünya uygulamalarında sıklıkla kullanılmaktadır. Tasarım kalıpları yazılım geliştiricilerin karşılaştıkları tekrar eden problemlere ortak çözümler olduğu için, yazılım geliştiricilere tasarımın kolayca uygulanmasını sağlar. Tasarım kalıpları ayrıca kaynak kodun kalitesi ve kodun yeniden kullanılabilirliğini gösterir. Bu yüzden, tasarım kalıplarını tespit etme yazılım projesinin tasarımını ve niyetini anlamada önem arz etmektedir. Bu tez, tasarım örüntülerini tespit eden bir çizge madenciliği yaklaşımını sunmaktadır. Tespit işlemi yaklaşımı, kaynak kodun model çizgesinin uzayında, izomorfik alt-çizge arama metodu aracılığıyla tasarım desenleri girdilerinin alt-çizgelerini aramaya dayalıdır. Tez kapsamında, tasarım örüntülerini tespit etmek için 'DesPaD' (Tasarım Deseni Detektörü) aracı geliştirilmiştir. İzomorfik aramayı uygulamak için açık-kaynak kodlu alt-çizge madenciliği aracı olan Subdue adlı referans kullanılmıştır. "Applied Java Patterns" kitabıyla beraber gelen 23 GoF tasarım deseni örnekleri tespit edilmiş, ayrıca yapılan deneylerde JUnit 3.8, JUnit 4.1 ve Java AWT açık-kaynak yazılımlarında bazı cesaretlendirici sonuçlar elde edilmiştir.
(2015) FARHAD SOLEİMANİAN GHAREHCHOPOGH (PhD)
Tek yanıtlı sorular için açık alanlı soru yanıtlama sistemi
Danışman: PROF. DR. İLYAS ÇİÇEKLİ
[Özet]
Soru Yanıtlama (SY), Yapay Zeka (YZ), Bilgi Tarama (IR) ve Doğal Dil İşleme (DDİ) bilim dalıdır ve doğal dil içerisindeki açık ve kapalı çalışma alanlarında soruları yanıtlayan sistemleri oluşturmayı otomatik olarak beraberinde getirir. Soru Yanıtlama Sistemleri (SYS) çeşitli kullanıcı sorularına değinmek durumundadır. Bazı basit sorulara verilen cevaplar kısa cümlecikler olurken, daha karmaşık sorular için verilen cevaplar kısa metinler olabilir. Basit cevaplı bir soru tek yanıtlı soru olarak tanımlanır ve tek yanıtlı sorularla ilgilenen soru cevaplama sistemine de tek yanıtlı SYS denir. Bu Tezde, üç aşamadan oluşan tek yanıtlı SYS sunmaktayız: soru işleme, metin tarama ve cevap işleme. Soru işleme aşamasında, otomatik öğrenme teknikleri kullanarak kullanıcıların sorguladıkları sorulardan arama motoru elde etmek için yeni bir iki-aşamalı kategori yapısı ele almaktayız. Tezimizde yer alan tek yanıtlı SYS, metinler üzerinde temel yapı olarak internet kullanmakta ve metin tarama aşamasında bilgi odaklı tarama yapmaktadır. Bu aynı zamanda, cevap işleme aşamasında cevap kalıbını eşleştirme tekniği kullanarak şablona dayalı bir SYS'dır. Buna ek olarak, mevcut SYS'lerin sınıflandırmasını da sunmaktayız. Bu sınıflandırma, erken SYS'ler, kurala dayalı SYS'ler, şablona dayalı SYS'ler, NLP odaklı SYS'ler ve otomatik öğrenmeye dayalı SYS'ler gibi olguları kapsar. Kullandığımız tek yanıtlı SYS, aynı zamanda, 17 kaba-taneli ve 57 ince-taneli kategoriyi içeren iki aşamalı kategori yapısı kullanır. Bu sistem, TREC-8 ve TREC-9'dan ilham alınan 570 soru ile eğitilip ve 570 diğer sorular, TREC-8, TREC-9 , ve TREK-10 verilerile test edilmiştir. SYS'mizde, sorguyu genişletme aşaması oldukça önemlidir ve genel olarak tüm performansı etkiler. Orijinal bir kullanıcı sorusu sorgulanmak üzere verildiğinde, elde edilen uygun dökümanlar yeterli olmayabilir. Bu durumda, sorgu şablonları ve soru tiplerine dayanan otomatik sorgu genişletme yaklaşımı sunmaktayız. Yeni sorgular, soru kategorilerinin sorgu şablonlarından elde edilir ve kullanıcı sorusunun kategorisi Naïve Bayes sınıflandırma algoritması tarafından bulunur. Genişletilmiş yeni sorgular, sorgu örüntüdaki boşlukları iki uygun sözcük öbeği ile doldurarak elde edilir. İlk öbek soru tipi öbeğidir ve doğrudan sınıflandırma algoritması tarafından bulunur. İkinci öbek soru öbeğidir ve olası soru şablonlarından Levenshtein uzaklık algoritması ile saptanır. Soru tipleri için sorgu şablonları, o soru tipleri içindeki olası soruları analiz ederek oluşturulur. Bu tezde, sorgu genişletme yaklaşımımızı TREC-8, TREC-9 ve TREC-10 konferans verilerinde yer alan tek yanıtlı soru tipleriyle iki aşamalı değerlendirmekteyiz. Otomatik sorgu genişletme yaklaşımımızın sonuçları elle yapılan sorgu genişletme yaklaşımı sonuçlarından daha iyi çıkmaktadır. Ağı sorgulayarak cevap kalıplarını otomatik olarak öğrendikten sonra, her soru tipi için cevap kalıbı gruplarını kullanmaktayız. Cevap kalıpları, ilgili metin bölümlerinden bulunan cevapları çekip alır ve bu cevap kalıbı Adlandırılmış Varlık Onayı (AVO) ile genellenebilir. AVO, cevap işleme aşamasındaki Bilgi Taramanın (BT) ikincil işidir ve metinsel dökümanlardaki terimleri yer ismi, kişi ismi, olay tarihi, vb gibi yeniden tanımlanmış kategoriler içerisinde sınıflandırır. Cevapların sıralanması, cevap kalıplarındaki frekans hesabı ve Güvenirlik Faktörü (GF) değerlerine bağlıdır. Sistemin sonuçları, yaklaşımımızın soru cevaplama için etkili olduğunu ve temel ince-taneli kategori sınıfımız için 0.58 Ortalama Karşılıklı Sıra (OKS) değeri, kaba-taneli kategori yapısı için 0.62 OKS değeri ve TREC-10 üzerinde veri kümelerini test ederek yapılan değerlendirme için 0.55 OKS değeri elde ettiğini gösteriyor. Sistemin sonucu, TREC veri kümeleri üzerinde standart ölçme kullanarak diğer SYS'ler ile kıyaslanmıştır.
(2015) BEHZAD NADERALVOJOUD (MS)
Dengesizlik probleminin metin sınıflama üzerindeki etkilerinin araştırılması
Danışman: DOÇ. DR. EBRU AKÇAPINAR SEZER
[Özet]
Metin sınıflandırma, dökümanı önceden tanımlanmış bir veya daha fazla kategori içerisinden birine atama işlemidir. Genel olarak, makine öğrenmesi algoritmaları veri kümelerinin neredeyse homojen olduğunu varsaymaktadır. Bununla birlikte, öğrenme yöntemleri dengesiz veri kümelerini kullanarak küçük kategoriler üzerinde kötü performansa sahip sınıflandırma eğilimi gösterebilmektedir. Çoklu sınıflandırmada, ana kategoriler çok sayıda dökümanı içeren sınıflara karşılık gelirken, küçük kategoriler ise dökümanı sayısı küçük olan sınıflara karşılık gelmektedir. Bunun sonucu olarak, metin sınıflandırma dengesiz sınıf probleminden oldukça etkilenen bir süreçtir. Bu çalışma içerisinde, makine öğrenmesi algoritmaları ve uyarlanabilir çerçeveyle birlikte kategori tabanlı vadeli ağırlıklandırma yaklaşımı kullanılarak bu sorun ele alınmaktadır. İlk olarak bu çalışmada, farklı karmaşıklık ve dengesizlik oranları olan senaryolar içerisinde tffs olarak adlandırılan özellik seçim metriklerinin iki farklı türü incelenmektedir. Geleneksel terim ağırlıklandırma olarak tfidf, tffs terim ağırlıklandırma yaklaşımının etkilerini değerlendirmek için kullanılır. Aslında amaç farklı dengesizlik durumlarında makine öğrenmesi algoritmaları için uygun olan ağırlık şemalarının belirlenmesidir. Bu nedenden dolayı, deneylerde SVM, kNN, MultiNB ve C4.5 gibi popüler olan sınıflandırma algoritmaları kullanılmıştır. Tfidf dikkate alınmadan, elde edilen sonuçlara göre; tek taraflı özellik seçim ölçümlerine dayalı terim ağırlıklandırma yöntemleri SVM ve kNN algoritmaları için daha uygun yaklaşımlar iken dengesiz metinler üzerinde iki taraflı terim ağırlıklandırma şemaları için ise MultiNB ve C4.5 algoritmaları en iyi seçimdir. Bununla birlikte, tfidf ağırlıklandırma yöntemi kNN algoritması için dengesiz metin sınıflandırma üzerinde daha fazla önerilebilir. Çalışma içerisinde ayrıca PNF ve PNF2 olarak adlandırılan fonksiyon tabanlı iki kategori, terim ağırlık şemasının global bileşeni olarak önerilmektedir. Mevcut yöntemlerle birlikte önerilen yaklaşımların değerlendirilmesi için, uyarlanabilir öğrenme süreci önerilmektedir. Aslında bu algoritma terim ağırlık şemalarına bağlı bir model öğrenir ve dengesiz metinlerin sınıflandırmasında farklı ağırlıklandırma yöntemlerinin performansını açıkça göstermektedir. Reuters-21578 ve WebKB üzerinde yapılan deneylere göre, önerilen yöntemler iyi sonuçlar vermektedir.
(2015) SERVET TAŞCI (MS)
İçerik bazlı medya takip ve haber tavsiye sistemi
Danışman: PROF. DR. İLYAS ÇİÇEKLİ
[Özet]
İnternetin hayatımıza yoğun bir şekilde girmesiyle birlikte yapısal olmayan verilerin özellikle metinsel verilerin miktarı çok fazla artmıştır. Kullanıcıların bu verilere erişim noktasının internet kaynakları olduğunu düşünürsek, bu kaynakların güvenilirliği, doğruluğu gibi konular da ön plana çıkmaktadır. Kaynakların çokluğunun yanında farklı kaynaklarda benzer içeriklerle bulunduğunu da göz önünde bulundurursak, bu kaynaklar arasından kısa zamanda sadece ihtiyaç duyulan metinin okunması son derece zor olmaktadır. Erişilen kaynağın da geçekten ihtiyaç duyulan bilgiye barındırıyor olması ve bunun kullanıcı gözüyle teyit ediliyor olması gerekmektedir. Tavsiye sistemleri bu anda devreye girerek kullanıcıların farklı özelliklerini göz önünde bulundurarak erişilen içerik ile kullanıcı arasında ilişki kurmakta ve içeriği belirli kriterlere göre değerlendirerek, içerik kullanıcıya özgü ise kullanıcıya tavsiye etmektedir. Tavsiye sistemleri ilk kullanılmaya başladığında basit anlamda içerik filtreleme özellikleri kullanılmaktaydı fakat günümüz itibarıyla bu sistemler çok daha karmaşık hesaplamalar ve algoritmalar kullanarak kullanıcıların birçok özellikleri ile veri arasında ilişki kurmaya çalışmaktadır. Bu da tavsiye sistemlerinin karar destek sistemleri olarak kullanılması haline dönüşmesini sağlamıştır. Bu tez metin halinde bulunan haber kaynaklarından verilerin elde edilmesi, verinin sınıflandırılması, özetlenmesi ve haberlerin kullanıcının özellikleri ile ilişkilendirerek tavsiye etmeyi amaçlamıştır. Tavsiye sistemleri tavsiye ederken başlıca üç metot olan içerik-bazlı filtreleme, işbirlikçi filtreleme ve karma filtrelemeyi kullanmaktadır. Bizim sistemimizde içerik-bazlı filtreleme kullanılmıştır.
(2015) EMİNE GÜL DANACI (MS)
Görsel nitelik öğrenmede alt-düzey özniteliklerin etkilerinin analizi
Danışman: YRD. DOÇ. DR. NAZLI İKİZLER CİNBİŞ
[Özet]
Görsel nitelikler bilgisayarlı görü alanında son zamanlarda popüler olmaya başlamış bir konudur. Görsel nitelikler nesne tanıma, insan arama, sahne tanıma gibi bir çok alanda kullanılmaktadır. Görsel niteliklerin öğreticiyle öğrenilebilmesi için ilk adım düşük seviyeli özniteliklerin çıkartılmasıdır. Sonrasında görsel nitelik öğrenme algoritmaları uygulanarak görsel nitelik modelleri oluşturulur. Bu tez çalışmasında düşük seviyeli özniteliklerin görsel nitelik öğrenmeye etkisi araştırılmıştır. Bu amaçla şekil, renk ve doku gibi farklı görsel karakteristikleri tanımlayabilen çeşitli öznitelikler kullanılmıştır. Ayrıca gitgide gelişmekte olan derin özniteliklerin görsel nitelik öğrenmeye etkileri de değerlendirilmiştir. Deneyleri gerçekleştirmek için farklı görsel tanıma görevleri için tanımlanmış dört adet veri kümesi kullanılmış ve sonuçları kaydedilmiştir. Sonuçlarımıza göre görsel nitelik öğrenme için derin öznitelik kullanımı etkilidir. Bunun yanında bu özniteliklerin düşük seviyeli öznitelikler ile kombinasyonu daha etkili sonuçlar vermiştir.
(2015) AYDIN KAYA (PhD)
Bilgisayar destekli tanı sistemi ile akciğer nodüllerinin nitelendirilmesi
Danışman: YRD. DOÇ. DR. AHMET BURAK CAN
[Özet]
Akciğer kanseri, özellikle endüstrisi gelişmiş ülkelerde ölüm oranı en yüksek kanser türüdür. Tanısındaki en büyük sıkıntılar, görüntüleme verilerindeki fazlalık ve kansere sebep olan küçük boyutlu nodüllerin tespitinin ve değerlendirmesinin zorluğundan kaynaklıdır. Bilgisayar destekli tanı sistemleri, bu temel sorunlarda radyologlara yardımcı olmak için geliştirilen uzman sistemlerdir. Bu tez kapsamında küçük boyutlu akciğer nodüllerinin habislik derecesinin belirlenmesi için sınıflama yaklaşımları önerilmektedir. Çalışmada Amerikan Kanser Enstitüsü tarafından sunulan Lung Image Database Consortium (LIDC) veritabanı kullanılmıştır. LIDC veritabanı dört farklı enstitüden radyologlar tarafından değerlendirilmiş ve nodül habislik derecesi yanında radyografik tanımlayıcı bilgisini içeren bir veritabanıdır. Bu tez çalışmasında, radyografik tanımlayıcıların habislik derecesinin tahmininde faydalı olup olmadığının incelenmesi amaçlanmıştır. LIDC veritabanının dengesiz sınıf dağılımını ele almak için veri dengeleme yaklaşımları kullanılmıştır. Sınıflama yöntemleri temel olarak iki adımdan oluşmaktadır. İlk adımda alt düzey görüntü özniteliklerinden radyografik tanımlayıcılar tespit edilmekte, sonraki adımda ise radyografik tanımlayıcılar aracılığıyla habislik derecesi tahmin edilmektedir. Sınıflama adımlarında tekil sınıflayıcılar, takım sınıflayıcılar, bulanık mantık tabanlı ve kural tabanlı sınıflama yaklaşımları kullanılmıştır. Çalışma sonuçları, sınıflama başarımı, duyarlılık ve seçicilik ölçümleri bağlamında literatürdeki önemli çalışmaların ve görüntü öznitelikleri ile eğitilmiş tekil sınıflayıcıların sonuçları ile karşılaştırılmıştır. Elde edilen sonuçlar radyografik tanımlayıcıların sınıflama başarımına olumlu katkı yaptığını göstermektedir. Sunulan yöntemlerin önemli bir bölümü, literatürdeki çalışmalar ile karşılaştırılabilir düzeyde başarılı sonuçlar üretmektedir.
(2015) RANA GÖNÜLTAŞ (MS)
Cosmıc işlevsel büyüklüğün java iş uygulamalarına ölçme kodu enstrümantasyonu yoluyla çalışma zamanında ölçülmesi
Danışman: YRD. DOÇ. DR. AYÇA TARHAN
[Özet]
Hızla gelişen bilgi teknolojileri dünyasında yazılımların işlevsel büyüklüklerinin ölçülmesi, yazılım projelerinin yönetiminde düşünülmesi gereken önemli bir konudur. İşlevsel büyüklük ölçümü, yazılım projelerinin süresi boyunca planlama parametrelerini tahmin etme ve süreci takip etmek açısından sağlam bir zemin hazırlar. Ancak manuel olarak yapılan ölçümler maliyeti artırmakta ve zaman kaybına yol açabilmektedir. Ayrıca yazılım projelerinde projenin başından sonuna kadar bu ölçümün sağlanabilmesi ve doğru bir şekilde ölçülebilmesi karmaşık uygulamalar için bazen zorlaşmakta ve yapılan ölçümler kişiden kişiye farklılık gösterebilmektedir. Bu sebeplerden ötürü ölçümün otomatikleştirilmesi fikri önem kazanmaktadır. Bu tez kapsamında, üç katmanlı mimariye sahip Java web uygulamalarının COSMIC işlevsel büyüklüğünün otomatik olarak hesaplanması amaçlanmıştır. Bu hedef doğrultusunda, geliştirilen kütüphanenin ilgili metotları otomatik olarak uygulamanın kaynak kodu içine yerleştirilmiştir. Daha sonra çalışma zamanında kullanıcı senaryolarına bağlı olarak büyüklük hesaplanması işlemi gerçekleştirilmiştir. Önerdiğimiz bu yöntem, ülkemizdeki bir kamu kurumu tarafından aktif olarak kullanılan bir sistemde işlevsel büyüklüğü ölçmek için test edilmiştir. Otomatik ölçme sonuçlarının doğruluğunun karşılaştırılabilmesi amacıyla aynı uygulama için ayrıca manuel ölçüm de gerçekleştirilmiştir. Otomatik ölçülen ve manuel olarak hesaplanan COSMIC işlevsel büyüklüklerinin %96 oranında yakınsadığı görülmüştür. Ayrıca, otomatik olarak yapılan ölçüm süresi manuel olarak yapılan ölçüm süresinin 1/27 si olarak yaklaşık 10 dakika sürmüştür. Geliştirilen modelin, yazılımların işlevsel büyüklüklerinin otomatik olarak ölçülmesi konusunda izlediği yöntem bakımından literatürde ender bulunan çalışmalardan biri olması sebebiyle, bu alanda yapılacak diğer çalışmalar için örnek teşkil etmesi beklenmektedir. Gelecek çalışmalarda, önerilen model geliştirilerek daha geniş kapsamda farklı sistemler için de kullanılabilir.
(2015) HASAN TUĞRUL ERDOĞAN (MS)
Seyrek kodlama tabanlı adaptif sonuç entegrasyonlu ayırt ederek çalışan görsel nesne takip sistemi
Danışman: YRD. DOÇ. MEHMET ERKUT ERDEM; YRD. DOÇ. İBRAHİM AYKUT ERDEM
[Özet]
Bu tezde, modelsiz takibe ilişkin yeni bir yaklaşım sunmaktayız. Öne sürülen görsel nesne takibi çalışması, seyrek kodlama tabanlı ayırt etme odaklı nesne takibi ile çoklu öznitelikleri dinamik bir şemayla birleştirme yöntemlerini kaynaştırmaktadır. Özellikle, modelimiz her bir özniteliği, çalışma sırasında o anki görsel içeriğe göre belirlediği güvenilirlikleri oranında birleştirmektedir. Bu güvenilirlik oranları, seyrek kodlama temelli yapı içindeki her bir özniteliğin, tek başına ortak izleme sonucuna ne ölçüde katkıda bulunduğunu belirlemek için kullanılmaktadır. Sonuç olarak; hedefin bir kısmının görülmediği, pozlama ve görünüş değişikliklerinin olduğu durumları ele alırken daha başarılı sonuçlar elde etmekteyiz. Öne sürülen algoritmanın performansını ve etkinliğini kanıtlamak için birtakım zorlayıcı video kümeleri üzerinde sayısal ve görsel sonuçları sunmaktayız.
(2015) FADİME İLİSULU (MS)
İş süreçleri olgunluğu için bir öz-değerlendirme aracının geliştirilmesi
Danışman: YRD. DOÇ. DR. AYÇA TARHAN
[Özet]
İş süreçleri, kurumların iş hedeflerine ulaşmasında ve kaliteli ürünler sunmasında önemli bir rol oynamaktadır. İş süreci olgunluk değerlendirme, henüz yaygın bilinmemekle birlikte, son yıllarda yayınlanan çalışmalar konunun ilgi çekmeye başladığını göstermektedir. Farkındalığın ve uygulamaların artmasında olgunluk modellerine ve değerlendirme yöntemlerine ilişkin bilgi kadar, bu bilginin paylaşımını ve değerlendirmeyi destekleyecek araçların varlığı da önemlidir. İş süreçlerinin olgunluğunun sağlanmasında referans alınmak üzere geliştirilen modeller, bilgi alanları ve pratikleri gereğince tanımlamalarına rağmen yeterli kılavuzluk sağlamamaktadır. Süreçlerin olgunluğunun değerlendirilmesi için kullanılan değerlendirme yöntemleri, kurumların kendileri tarafından kolaylıkla uygulanabilecek bir öz-değerlendirme için soyut kalmaktadır. Bu noktada, süreç olgunluk değerlendirmesini destekleyecek ve kurumların kendileri tarafından pratik olarak kullanabileceği bir öz-değerlendirme aracına ihtiyaç vardır. Bu tez kapsamında, iş süreçleri yönetiminde karşılaşılan problemler ve mevcut iş süreci olgunluk modelleri göz önüne alınarak, bir öz-değerlendirme aracının geliştirilmesi amaçlanmıştır. İş süreci olgunluğu için ortaya atılmış modeller ve değerlendirme yöntemleri detaylı olarak incelenmiştir. Elde edilen veriler gözetilerek, iş süreci değerlendirme için gerekli özellikler belirlenmiştir. Sonraki aşamada, bilimsel literatürde geliştirilmiş değerlendirme araçları belirlediğimiz kriterlere göre incelenmiş, araçlar bu kriterler temel alınarak karşılaştırılmıştır. Literatürdeki değer-lendirme araçlarının güçlü ve zayıf yönleri tespit edilerek, geliştireceğimiz araçta olması gereken temel özellikler çıkarılmıştır. Elde edilen sonuçlara göre değerlen-diricinin kendisi tarafından ve pratik olarak kullanılabileceği bir öz-değerlendirme aracı geliştirilmiştir. Geliştirilen aracın kullanımı iki kurumda pilot çalışmalar yaparak sınanmış ve gerekli güncellemeler yapılmıştır. Pilot çalışmaların sonuçları aracın iş süreci değerlendirmede kullanımı için teşvik edicidir. İş süreci olgunluğunun değerlendirilmesi için geliştirilen bu aracın, literatürde yapılmış yeterli çalışma olmaması sebebiyle bu alanda yapılacak çalışmalara temel oluşturması beklenmektedir. Aracın Türkçeleştirilerek farklı iş alanlarında pilot çalışmaların tekrarlanması, ihtiyaç duyulması durumunda iyileştirmeler yapılması ve işlevselliğin arttırılması gelecekte yapılması planlanan çalışmalar arasındadır.
(2015) DILMUROD VAHABDJANOV (PhD)
Bağlama-dayalı rol tabanlı yetkilendirmede semantik model kullanarak erişim denetimi ve yönetimi: Sağlık alanı için bir durum çalışması
Danışman: PROF. DR. HAYRİ SEVER
[Özet]
Günümüzün bilişim dünyasında bilgi teknolojileri (BT) ve bilgi güvenliği her açıdan çok önemli ve karmaşık bir problem haline gelmiştir. Koruma altına alınan bilgiye yetkisiz erişimin yapılabiliyor olması düşünülemez boyutta hasarlara ve sonuçlara neden olur. Bu bağlamda, erişim kontrolünü yönetebilmek için güvenli, esnek ve uygulanabilir basitlikte politika ve kuralların sağlanması, birçok güvenlik araştırmacıları ve mühendislerin nihai ana hedefleri arasında yerini almıştır. Şu ana kadar yapılan araştırma ve çalışmalar sonucunda farklı yaklaşımlar temelinde belirli üstünlüklere sahip çeşitli erişim kontrolü modelleri önerilerek hayata geçirilmiştir. Bu çerçevede, güvenli erişim kontrol işlemlerinden en önemlisi rol-tabanlı erişim kontrol modeli olmuştur. Ayrıca bilgiye erişim süreçlerinin güvenli bir şekilde hızlandırılması amacıyla, bilgi işleme ve dağıtık bir yapıdaki paylaşım düzenekleri üzerinde farklı yeni yaklaşımlar ortaya çıkmıştır. 1990'ların başında "Yaygın Bilişim" yaklaşımı ortaya atılmıştır. Bu yaklaşımın temel amacı, zaman ve mekan bağımsız her yerden hizmet alınabilmesini sağlayacak akıllı iletişim sistemleri sayesinde yeni nesil BT uygulamaları bütününde güvenli bir bilgi paylaşımıdır. Bilişim uygulamalarının yaygınlığının önemli yönlerinden biri de bağlama-dayalı sistemlerdir. Bağlama-dayalı sistemlerinin ana konsepti - farklı yöndeki çevresel ortamları sezinleyerek, bağlam bilgilerine göre davranış süreçleri uyarlamasıdır. Günümüzün modern teknolojilerinde iletişim ağları ve bilişim alt yapıları üzerinde kurularak, kullanıcıların her yerden ve her zaman bilgiye erişimi ve paylaşımı sağlayan düzenekler gibi yeni güvenlik değişimleri gereksinimi oldukça önem kazanmıştır. Bu bağlamda, uyarlanabilir servis ve akıllı sistemler üzerinden kaynak bilgileri erişiminin, etkili bir erişim kontrolü sistemi tarafından denetlenmesi ve koruma altına alınması gerekir. Bu tez çalışması kapsamında, politika tabanlı yaklaşımlar ışığında geliştirilen bağlama-dayalı erişim kontrolü modelleri karşılaştırılmıştır. Ayrıca tez araştırmasının önemli amaçlarından biri de sağlık hizmetlerinde web üzerinden bilgi paylaşımını sağlayıp, "Bağlama-Dayalı Güvenlik" yaklaşımıyla bütünleştirilen kavramsal bir yetkilendirme modelinin tasarımı ve öneri çalışması gerçekleştirilmesidir. Böylece tanımlanan roller ve kurallara göre üretilen sabit bir güvenlik politikasına dayanan yetkilendirme modeli yerine daha da esnek ve durum değerlendirmesine göre anlamlı ve dinamik yapıdaki bir güvenlik politikası türetebilen bir yetkilendirme modelinin ortaya konması söz konusudur.
(2015) EZGİ EKİZ (MS)
Sahne tanıma problemi̇ i̇çi̇n çoklu örnek tabanlı öğrenme si̇stemi̇
Danışman: YRD. DOÇ. DR. NAZLI İKİZLER CİNBİŞ
[Özet]
Sahne tanıma problemi, bilgisayarlı görünün sıklıkla çalışılan alanlarından biridir. Bu problemin amacı, gözlenen bir resmin çekildiği ortama ait etiketin bulunmasıdır. Resmin içerisindeki genel mekansal düzenlemeler, nesnelerin gözlenmesi ve bunların konumları gibi çeşitli görsel ipuçları bir sahnenin kategorize edilmesine yardımcı olabilir. Ayrıca, birbirine çok benzeyen sahneler fotoğraflanmaları sırasındaki bakış açılarına göre görsel olarak çeşitlilik gösterebilirler. Bu tip yerleşim değişikliklerini ele almak adına, bu tezde çoklu alan seçimi tabanlı bir yaklaşım önerilmektedir. Bu amaçla, öncelikle aynı sahnenin resimlerine ait paylaşılan ve temsil edici büyük alanların elde edilmesine dair yeni bir yöntem önerilmektedir. Daha sonra bu alanlar bir çoklu örnekle öğrenme sisteminde değerlendirilmektedir. Böylelikle, sahneye ait genel yapının yakalanması amaçlanmaktadır. Ayrıca bu genel yapı, yerel yapının ayırt edici parçalar cinsinden kodlandığı yerel bir yaklaşım ile birleştirilmektedir. Ek olarak son dönemde popüler olan derin sinir ağları kullanılarak daha önce elde edilen büyük alanlar ifade edilmekte ve bu gösterim hem çoklu örnekle öğrenme sistemi ile, hem de VLAD gösterimi ile kodlanmaktadır. Hem genel ve yerel yapıdan, hem de çeşitli kodlama yöntemlerinden gelen bilgilerin birleştirilmesi amacı ile gözetimli bir sonradan birleştirme yöntemi sunulmaktadır. Birleştirmenin, farklı yöntemlere ait bilgilerin tamamlayıcı yapısını ortaya çıkardığı, sahne tanıma probleminde sıklıkla kullanılan MIT-İç mekan, 15-Sahne and UIUC-Spor veri kümeleri üzerinde yapılan deneyler ile gösterilmiştir.
(2015) ETHEM ARKIN (PhD)
Koşut algoritmaların koşut hesaplama platformlarına atanması için model güdümlü yazılım geliştirme
Danışman: YRD. DOÇ. DR. KAYHAN MUSTAFA İMRE; PROF. DR. BEDİR TEKİNERDOĞAN
[Özet]
Mevcut eğilim bilgisayar sistemlerindeki kullanılan işlemci sayısının önemli ölçüde artışta olduğunu göstermektedir. 2020 yılı itibari ile super bilgisayarların yüksek ölçekli seviyede hesaplama yapabilmesi için yüzbinlerce işlem biriminden oluşması planlanmaktadır. Tek işlemciden koşut bilgisayar mimarilerine uzanan bu eğilim ile birlikte yüksek başarımlı hesaplama için gereken ihtiyaç koşut hesaplamanın benimsenmesini sağlamaktadır. Koşut hesaplama gücünden yararlanmak için bu koşut hesaplama platformlarına atanabilen ve çalıştırılabilen koşut algoritmaların tanımlanması gerekmektedir. Sınırlı sayıda işlem biriminden oluşan küçük hesaplama platformları için koşut algoritmaların atanması elle yapılabilmektedir. Ancak, yüksek ölçekli sistemler gibi büyük koşut hesaplama platformlarında olabilecek atama seçenek sayısı önemli ölçüde artmaktadır ve atama işlemi takip edilemez olmaktadır. Bu nedenle, uygun atamaların elde edilmesi ve hedef kodun oluşturulması için otomatik bir yaklaşımın tanımlanması gerekmektedir. Bu tezde, koşut algoritmaların koşut hesaplama platformlarına atanması için model güdümlü yazılım geliştirme yaklaşımı sunulmaktadır. Yaklaşım, algoritma parçalamasının ve koşut hesaplama platformlarının modellenmesi, algoritmanın koşut hesaplama platformuna atanmasının modellenmesi için gereken yeniden kullanılabilir varlıkların tanımlanması, uygun atamaların oluşturulması ve son kodun üretilmesi ve konuşlandırılması için gereken faaliyetleri içermektedir. Modellemelerin yapılması için koşut hesaplama üst modeli tanımlanmıştır ve bu üst modelden mimari bakış açıları elde edilmiştir. Yaklaşım iyi bilinen koşut algoritmalar kullanılarak değerlendirilmiştir.
(2015) NİCAT SÜLEYMANOV (MS)
İnternet servis ve kaynakları üzerinden işlenmiş veri sağlayan bir platform geliştirilmesi
Danışman: PROF. DR. İLYAS ÇİÇEKLİ
[Özet]
Her gün artmakta olan internet verileri arasından istenilen ve doğru veriye ulaşılması zorluklar getiriyor ve kullanıcı, arama motorlarında sorusuna cevap olarak 10 milyon cevap değil, en uygun görülen 10 cevabı, varsa eğer tek doğru cevabı istiyor. Bu çalışmada, Türkçe sorular için soruları çözümleyen ve internet servis ve kaynakları üzerinden bilgi çıkarımı gerçekleştirecek soru cevaplama sistemi anlatılmaktadır. Soru analizi kısmı aşamasında kelimelerin gövde bilgisinden ve örüntü tanıma teknikleri kullanılarak belli soru tiplerini algılayan ve aynı zamanda sorudaki kelimelerin anlam ve morfolojik yapı özelliklerinden varsayımlar yaparak iki aşamalı çözüm yolu denenmiştir. Ayrıca, soru analizi başarı oranını yükseltmek amacıyla WordNet çatısı da kullanılmıştır. Bilgi çıkarımı kısmında internet kaynak ve servislerine başvurulmuştur. Her gün artan internet verilerine erişimin kolaylaştırılması kapsamında Tim Berner Lee tarafından gerçekleştirilen anlamsal ağ çözümü bu çalışmada bilgi çıkarımında kullanılmıştır. Vikipedi verilerini işleyerek anlamsal ağ kaynağına dönüştürülmesini gerçekleştiren Dbpedia kaynağı kullanılmıştır.Doğal dil Türkçe sorularının doğal dil işleme ve bilgi çıkarma teknikleri kullanılarak anlamsal ağdasorulan ve makinaların anlayacağı Sparql sorgularına dönüştürülmesi sağlanmıştır. Dbpedia'dan çekilmiş Özlem-Yüklem-Nesne bilgileriyle Türkçe sorular arasında eşleştirmeler yapılması ve eşleşen üçlüler üzerinden cevaba ulaşılması sağlanmıştır. Çalışma sürecinde Türkçe-İngilizce karşılaştırma kapsamında ve veri sorgularında Vikipedi API'si de fayda sağlamıştır.
(2014) Alaettin UÇAN (MS)
Otomatik Duygu Sözlüğü Çevirimi ve Duygu Analizinde Kullanımı
Danışman: PROF. DR. HAYRİ SEVER; DOÇ. DR. EBRU AKÇAPINAR SEZER
[Özet]
İnsanlar günlük ya da dönemlik eylemlerinde karar vermek için, diğer insanların duygularını, deneyimlerini veya görüşlerini öğrenerek hareket etmek isterler. Bu eğilim, aynı zamanda tecrübe aktarımı ve toplumsal hafızanın genişlemesi anlamına gelir. Örneğin satın alınılacak bir ürüne ya da hizmete karar vermek, izlemek için film seçimi yapmak ve hatta seçimlerde oy verilecek adaya karar vermek bu tür kararlar arasında yer alır. Diğer insanların bir konu hakkında ne düşündükleri çoğu zaman önemlidir ve bu düşünceleri öğrenebilmek için o kişiyle konuşmak ya da yazdıklarını okumak gerekir. Aslında, yazılara ulaşmak görece daha kolaydır. Ve günümüzün etkileşimli web uygulamaları ve sosyal medya ortamları sayesinde büyük bir kütlenin ürettiği büyük bir içeriğe erişmek daha da kolay hale gelmiştir. Ancak erişilen içeriğin hacmi arttıkça, tek tek okunup anlaşılması hatta istenen içeriğe ulaşılması bile insan eforu ve zamanı içinde gerçekleştirilemeyecek boyutlardadır. Bu nokta, genel çerçevede içerik tabanlı erişim sistemlerinin, metin madenciliğinin ve doğal dil işleme konularının, daha özelde duygu analizi çalışmalarının ana motivasyonunu oluşturur. Duygu Analizi, yazılı halde verilen bir ifadenin (belge, yorum, eposta vb.) yansıttığı duygunun bilgisayar yoluyla otomatik olarak tespit edilmesi işidir. Bu çalışmaların Düşünce Madenciliği veya Duygu Sınıflama olarak adlandırıldığı da görülür. Tespit edilmesi hedeflene duygu, yazarın ruh halini, konu hakkındaki düşüncesini, yapmak istediği vurguyu ya da yaratmak istediği etkiyi içerebilir.Son 15 yıldır yapılmış olan Duygu Analizi çalışmaları uyguladıkları yaklaşıma göre, “sözlük veya derlem”, “istatistiksel veya makine öğrenmesi” olmak üzere iki ana gruba ayrılabilir. Türkçe için, birçok kez denenmiş olan makine öğrenmesi tekniklerinin aksine, duygu sözlüğü kullanarak duygu analizi çalışması yapılmadığı gözlenmiş ve bu eksikliği gidermek için doğrudan sözlük kullanarak Duygu Analizi gerçekleştirimi hedeflenmiştir. Türkçe Dili’ne özgü hazırlanmış ve anlamlar arası ilişkileri ifade etmesi sağlanmış bir sözlük bulunmadığından ayrıca duygu ifadelerinin evrensel olabileceğinden yola çıkılarak İngilizce için hazırlanmış olan duygu sözlüğünün Türkçe’ye otomatik çevirisi yapılarak Türkçe Duygu Sözlüğü oluşturulmuştur. Bu çalışmanın önemi kullanımı için önceden veri üretimi ve eğitimi gerekli olmadan, alan bağımlılığı taşımadan ve karmaşıklık düzeyini alt seviyede tutarak duygu analizini gerçekleştirimini sağlayabilmektedir. Elde edilen sözlüğün tamlığı tamamen bu tezin hedefleri dışında tutulmuş, yapılan çevirinin doğruluğu ve sözlüğün Duygu Analizinde kullanabilir olduğu düzenlenen deneyler ile sınanmıştır. Elde edilen sonuçların karşılaştırılması ve yorumlanabilmesi için, aynı deneyler makine öğrenimi yöntemleri ile de yinelenmiştir. Duygu sözlüğü kullanılarak elde edilen sonuçlar hem makine öğrenmesi yöntemlerinin sonuçlarıyla hem de diğer dillerdeki sözlük çalışmalarının sonuçlarıyla karşılaştırılmış ve geliştirilen yöntemin başarılı olduğu gözlenmiştir.
(2014) RAHEM ABRİ ZANGABAD (MS)
Hareketli tasarsız ağlarda adaptif yönlendirme için yeni bir metrik
Danışman: YRD. DOÇ. SEVİL ŞEN AKAGÜNDÜZ
[Özet]
Tasarsız ağlar kendinden yapılı, hareketli düğümler ile telsiz bağlantıların bir araya gelmesi ile oluşan ağlardır. Bu ağlar önceden kurulmuş sabit bir alt yapıya sahip değillerdir. Bu özellikleri, onları bir çok uygulama için çekici kılmıştır. Askeri uygulamalar, sabit yapının kurulmasının olanaksız olduğu afet (sel, deprem, vb.) kurtarma operasyonları ilk akla gelen örneklerdir. Bu ağlarda en önemli problemlerden biri, bu ağların dinamik yapısına uygun adaptif düşük maliyetli ve ölçeklendirilebilir yönlendirme protokollerinin tasarlandırmasıdır. Bu tezde, hareketlilikten kaynaklı değişiklikleri yansıtmak için "hop change metric" isimli yeni bir metrik önerilmiştir. Bu metrik, yönlendirme tablosundaki hedef düğümlere olan uzaklıklardaki değişimi göstermektedir. Bu metrik, iki popüler yönlendirme protokolü üzerinde test edilmiştir. Bu protokollerden birisi, en çok kullanılan reaktif yönlendirme protokolü AODV'dir (Ad hoc On-Demand Distance Vector Routing). AODV "hop change metric" kullanılarak, en sabit ve kararlı yolu seçmeyi amaçlamaktadır. Bu yaklaşım LA-AODV (Lightweight Adaptive AODV) olarak adlanmıştır. Benzetim sonuçlarına göre, LA-AODV yaklaşımı orijinal AODV protokolünden daha iyi bir performans sergilemektedir. İkinci aşamada, bahsedilen metrik bir proaktiv yönlendirme protokolü (DSDV) üzerine uygulanmıştır. Bu yaklaşımda tanıtılan metriğe dayalı bir eşik değeri tanımlanarak, bu yaklaşım, periyodik güncellemenin zamanı belirlenmektedir. Bu yaklaşım LA-DSDV (Lightweight Adaptive DSDV) olarak adlanmıştır, değişim ve hareketlilik çok olduğunda periyodik güncelleme işlemini tetikleyerek ağın performansını yükseltmektedir. Benzetimde LA-DSDV yaklaşımı orijinal DSDV (Destination-Sequenced Distance Vector Routing) protokolü ve ns-DSDV protokolü ile karşılaştırılmıştır. Sonuçlar, LA-DSDV'nin paket teslim oranı ve paket düşürme oranını, uçtan uca gecikmeyi arttırarak geliştirdiğini göstermektedir. Önerilen metriğin ağdaki değişikleri belirlemede bir potansiyeli olduğu ve hem proaktif, hem de reaktif yönlendirme protokollerine uygunluğu gösterilmiştir.
(2014) FIRAT AKBA (MS)
Duygu analizinde öznitelik seçme metriklerinin değerlendirilmesi: Türkçe film eleştirileri
Danışman: DOÇ. DR. EBRU AKCAPINAR SEZER
[Özet]
İnternet hizmetlerindeki gelişmeler ve İnternet kullanıcıları sayısındaki artış, günlük aktivitelerimizde İnternet kullanımını daha gelişmiş bir seviyeye taşımıştır. Günümüzde insanlar talep ettikleri bilgiye İnternet üzerinde yaptıkları basit bir arama ile kolayca ulaşabilmektedirler. Hatta İnternet kullanımındaki yeni gelişmeler, kullanıcılara İnternetteki bilgileri sorgulayabilmelerine olanak vermektedir. İnternetteki bilgilerin büyük bir kısmı geribildirim yapılmasına açıktır. Bu geri bildirimler; anketler ve forum web siteleri aracılığıyla ilgili kuruluşlar tarafından yeni fikirleri analiz edebilmek için toplanmaktadır. Geribildirimlerin kısa sure içerisinde insan gücü ile analizi çok zordur. Çünkü çok fazla İnternet kullanıcısı olmasından dolayı bu yorumların değerlendirilmeleri için uzun bir işlem süresine gereksinim duyulmaktadır. Duygu analizi kavramı da bu fikirlerin ne kadar olumlu ve olumsuz olduğunu sınıflama aşamasında ortaya çıkan problemlerin çözümü noktasında keşfedilmiştir. Bu tezde, duygu analizi yöntemlerinin başarı oranları karşılaştırılarak incelenmiştir. Uygulanan birtakım deney sonuçlarına göre, kısa sürede cevap verebilecek ve daha az insan gücüne ihtiyaç duyacak bir sistem oluşturulmasına çalışılmıştır. Tezde kullanılan veriler Türkçe film yorumları web sitesi üzerindeki kullanıcılar tarafından yorumlanıp puanlandırılmıştır. Bu veriler 0,5 ile 5,0 aralığında puanlandırılmıştır. Öznitelik seçme metrikleri istatistik alanında yaygın olarak kullanılmaktadır. Veriler elde edildikten sonra, bu araştırmanın gereksinimlerine cevap verebilmek için Destekçi Vektör Makineleri (SVM) ile öznitelik seçme metriklerinin çeşitli kategorilere ait yorumlardaki ayrıştırıcı özelliği kullanılarak, SVM'nin başarısına nasıl bir katkı yaptığı tespit edilmiştir. Önerilen sistem tasarımında sadece olumlu ve olumsuz kategorileri sınıflarken %83,9 F1 değeri elde edilmiştir. Olumlu, olumsuz ve nötr yorumları sınıflarken ise %63,3 F1 başarı değerine ulaşmıştır. Literatür araştırmalarındaki bulgulara dayanarak; önerilen sistem tasarımı, öznitelik seçme metriklerinin duygu analizinde başarı ile kullanılabileceğini kanıtlamaktadır. Önerilen bu yeni sistem tasarımının duygu analizi konusuna yeni bir bakış açısı getireceğine inanmaktayız.
(2014) BEGÜM MUTLU (MS)
Hiyerarşik bulanık çıkarsama sistemlerinde bulanıklığın düzeyler arası aktarımı için yöntem önerisi
Danışman: DOÇ. DR. EBRU SEZER; YRD. DOÇ. DR. HAKAN AHMET NEFESLİOĞLU
[Özet]
Hiyerarşik Bulanık Sistemler çok sayıda girdi parametresi olan karmaşık problemlerin çözümünde bulanık mantık yaklaşımının tek bir bulanık sistemle modellenmesinin uygulanabilir olmadığı durumlarda sıklıkla kullanılan çözümdür. Bu karmaşıklık hem hesaplama maliyeti hem de bulanık kural oluşturmanın zorluğu ile ilişkilidir. Bu çekincelerin üstesinden gelmek adına çok boyutlu tek bir bulanık sistem, daha küçük boyutlu alt sistemlere ayrıştırılır ve bu alt sistemler farklı tasarım stratejileri yardımıyla birbirine bağlanır. Geleneksel Mamdani tipi bir hiyerarşik bulanık çıkarsamada, çıkarsama adımları her bir alt sistem için uygulanmakta ve elde edilen keskin çıktı üst katmana aktarılmaktadır. Söz konusu keskin çıktı bir sonraki alt sistemde yeniden bulanıklaştırılmaktadır. Ancak gerekli olmadığı halde tekrarlanan bu durulaştırma ve bulanıklaştırma adımları, her durulaştırma-bulanıklaştırma ikilisi verinin bulanıklık seviyesinde bozulmaya sebep olduğundan bilgi kaybı yaratmaktadır. Bu durum hiyerarşik sistemin kendisine karşılık gelen CFS ile eş çıktılar üretmesini engellemektedir. Ayrıca bu sistem, hiyerarşik tasarım stratejisindeki değişimlere karşı da dirençli değildir. Girdi parametrelerinin aldıkları değerler değişmese bile, hiyerarşik yapıda meydana gelen herhangi bir değişim, sistemin farklı bir çıktı üretmesine yol açmaktadır. Bu durumda hiyerarşik sistem kullanımının avantajlarından yararlanılırken sistem doğruluğu ve kararlılığından ödün verilmektedir. Bu çalışmada geleneksel hiyerarşik bulanık sistemlerde ortaya çıkan katmanlar arasında hatalı veri aktarımı konusu vurgulanmış ve yeni bir hiyerarşik çıkarsama akışı, Durulaştırmasız Hiyerarşik Bulanık Çıkarsama Sistemi, önerilmiştir. Bu yaklaşıma göre ara katmanlardaki durulaştırma adımları çıkarsama akışından kaldırılmış ve birleştirme adımı çıktısı doğrudan üst katmana taşınmıştır. Bu sayede bir sonraki alt sistem girdisi bulanık olarak alındığından bu alt sistemdeki bulanıklaştırma adımı da gereksiz olması dolayısı ile çıkarsama akışından çıkarılmıştır. Bu sayede bulanık bilginin ilk katmandan en üst katmana kadar doğru bir şekilde aktarımı sağlanmış olur. Deneyler farklı senaryolar üzerinde gerçekleştirilmiştir: 'VE' ve 'Dışlayan VEYA' mantıksal problemleri ve Kaya Kütle Puanı (RMR) hesaplama problemi. Bu deneylerde tek bir bulanık sistem ve üç farklı hiyerarşik çıkarsama akışı en doğru çözümün bulunması açısından bu senaryolara uygulanmıştır. Bu hiyerarşik çıkarsama akışlarının karşılaştırmasında tek bir bulanık sistemin çıktıları referans alınmıştır. Çünkü hiyerarşik sistemlerden beklenen en önemli özellik tek bir bulanık sistemin çıktılarına mümkün olduğunca eşit çıktılar üretebilmesidir. Sonuçlar, bir tasarım stratejisine bağlı olmaksızın, CFS davranışlarına en yakın davranışı sergilemesi açısından en doğru veri transferinin önerilen yöntem tarafından yapıldığını göstermiştir.
(2014) NAEEM YOUSİR (PhD)
Bulut bilişim ortamında sanal özel çokluortam ağlarının "yazılım servisi" olarak yayınlanması
Danışman: DOÇ. DR. EBRU SEZER
[Özet]
Bu çalışmada bulut üzerinde özel ve etkileşimli çoklu-ortam kontrolü tasarımı ve uygulanması gerçekleştirilmiştir. Önerilen tasarım ve uygulama en son yazılım teknolojileri, kavramları ve araçları kullanılarak gerçekleştirilmiştir. Bu çalışmanın temel amacı, internet tarayıcılarının daha fazla bileşen (örneğin, animasyon oynatıcı) yüklemesine gerek kalmadan özel akış (stream) çalar gerçekleştirimini yapmaktır. Bu amaç, tez kapsamında Internet Explorer tarafından sağlanan olanaklar ile Gerçek Zamanlı Akış Protokolü (RTSP) uygulanarak sağlanmıştır. RTSP'yi uygulamak için iki aktarım protokolü gerektmektedir: UDP (Asenkron Aktarım Protokolü); AJAX, Gerçek Zaman Kontrol Protokolü (RTCP) ve TCP (Senkron Aktarım Protokolü) uygulamak için kullanılır. Sonuçlar, animasyon oynatıcı gömülebilir bileşeninin farklılıkları ortaya çıkarmak için toplanmış ve değerlendirme yapılmıştır. Uygulanan akış(stream) sistemi iki farklı ortamda test edilmiştir: ilki laboratuar ortamında olup, bulut gecikme test altyapısı bu ortama dahil edilmemiştir. Elde edilen sonuçlarda, akış matrisi ölçüm değerleri gerçek zamanlı durumda akışların teslim alınmasında yüksek performans elde edilebildiğini göstermiştir. Ayrıca her kullanıcı için performansın korunduğu gözlenmiştir. Bu aşamadaki testlerde, ek olarak 4, 8 ve 16 eş zamanlı kullanıcı için incelenmiştir ve her bir kullanıcı bağımsız olarak kullanıcı etkileşim sisteminin içinde yer almıştır. İkinci test ortamı, bulut üzerinde gerçekleştirilmiştir. Uygulama sistem performansını korumuş, ancak ağ gecikmeleri genel performansı belirlenmesi için önemli bir etken olmuştur. Burada 4 kullanıcı için bulut gecikmesi yaşanmamış, ama 8 ve 16 adet kullanıcı için etkilenme gözlenmiştir. Akışın güvenliğini korumak için şifreleme metodolojileri tarafından desteklenen bulut ortamı, gerçek zamanlı etkileşimli çokluortam sistemi barındırmak için büyük bir potansiyel göstermiştir. Çokluortam akışı için sunulan güvenli ağ geçidi (getway) performansı özellikle şifreleme ve şifre çözmede uzun anahtarları kullanımı tavsiye edilmektedir.
(2014) UĞUR ERAY TAHTA (MS)
Eşler arası ağlarda güven yönetiminin genetik programlama ile sağlanması
Danışman: YRD. DOÇ. DR. AHMET BURAK CAN; YRD. DOÇ. DR. SEVİL ŞEN
[Özet]
Eşler arası sistemler, her kullanıcıya kolay paylaşım ve açık erişim olanağı sağlaması sebebiyle yaygın olarak kullanılmaktadır. Fazla sayıda kullanıcıya hitap eden eşler arası sistemlerde, sistemi kötü amaçlı kullanan kullanıcılar da bulunabilmektedir. Bu durum ise eşler arası sistemlerde güven yönetimini sağlamayı gerektirmektedir. Sistemde var olan kötü niyetli kullanıcıların sistemden uzaklaştırılması adına birçok yöntem uygulanmıştır. Yöntemlerin temel amacı kötü niyetli kullanıcıları tespit etmek ve onlar ile etkileşime girilmesini önlemektir. Yapılan tez çalışması kapsamında eşler arası sistemlerdeki güven yönetimi, saldırganlara karşı eğitilebilen ve evrimleşerek daha iyi çözümler sunabilen bir model ile sağlanmıştır. Genetik programlama yardımı ile evrimleşen ve kötü niyetli kullanıcıların karakteristiklerini öğrenerek sistemden uzaklaştıran bir model oluşturulmuştur. Kullanıcıların doğrudan birbirleri ile olan etkileşimleri ve komşularından aldıkları tavsiyeler üzerine kurulu olan model sayesinde sistemdeki kötü niyetli kullanıcıların yaptığı saldırılar engellenmeye çalışılmıştır. Farklı durumlara ve saldırı türlerine göre eğitilen model çeşitli ortamlarda test edilmiş ve başarılı sonuçlara ulaşılmıştır.
(2014) LEVENT KARACAN (MS)
Birinci ve ikinci dereceden istatiksel bilgiyi kullanarak görüntü düzleştirme
Danışman: YRD. DOÇ. DR. İBRAHİM AYKUT ERDEM; DR. MEHMET ERKUT ERDEM
[Özet]
Son yıllar yeni anlayışların ve fikirlerin sağlandığı yeni görüntü düzleştirme tekniklerinin ortaya çıkmasına tanıklık etti ve bu iyi çalışılmış ̧ problemin doğasıyla ilgili yeni sorular sorulmaya başlandı. Son yıllardaki çalışmalar özellikle kenarlar için ve kenarları salınımlı yapılardan ayıran özel ölçüler için parlaklık değeri değişikliklerine bağlı olmayan(gradyan olmayan) tanımlamalardan faydalanarak verilen bir resmi yapı ve doku katmanlarına ayırırlar. Bu tezde görüntü bölgelerinin birinci ve ikinci dereceden istatistiklerine bağlı alternatif ve basit bir görüntü düzleştirme yaklaşımı öneriyoruz. Bölge istatistiklerinin bir resim parçası tanımlayıcısı olarak kullanımı yerel yapıyı ve doku bilgisini dolaylı olarak elde edebilmemizi sağlar ve yapı bilgisinin doku bilgisinden çıkarılması için yaklaşımımızı oldukça etkili yapar. Deney sonuçlarımız, önerilen yaklaşımın en son yapılan calışmalarla karşılaştırıldığında daha iyi görüntü ayrıştırımı yaptığını ve önemli kenarların ve gölgelemenin iyi korunduğunu gösterdi. Ayrıca bu tezde, yaklaşımımızın kenar çıkarma, görüntü özetleme, doku ve detay iyileştirme, görüntü birleştirme, ters yarı tonlama ve görüntü yeniden boyutlandırma gibi görüntü düzenleme ve işleme gorevlerinde uygulanabilirliğini gosterdik.
(2014) OĞUZ ASLANTÜRK (PhD)
Tamgacı: Artırımsal ve geri beslemeli Türkçe yazar çözümleme
Danışman: PROF. DR. HAYRİ SEVER
[Özet]
Yazar Çözümleme, bir metnin özelliklerini kullanarak o metnin yazarına ilişkin bilgi çıkartma eylemidir. Yaklaşık 130 yıllık geçmişe sahip bu araştırma konusunun kriminal, edebi, ticari ve akademik çerçevede önemli kullanım alanları bulunmaktadır. Yazar Tanıma ise bir metnin aday yazarlar arasından hangisi tarafından yazıldığını tespit etmeye çalışan ve Yazar Çözümleme disiplininin bir alt kolu olarak değerlendirilen bir araştırma alanıdır. Yazar Tanıma temelde bir sınıflandırma problemi olduğundan, makine öğrenmesi tekniklerinden bu alanda sıklıkla faydalanılmaktadır. Ancak yapılan çalışmalarda bugüne kadar 1000 kadar özellik incelenmiş olmasına rağmen, metne ait hangi özelliklerin en iyi, en başarılı özellikler olduğu konusunda halen ortak bir uzlaşı yoktur. Kullanılan metin özellikleri yazarların yüksek doğruluk oranlarıyla tanınmasında önemli olduğu kadar, oluşturulan sınıflandırıcıların eğitilmeleri için harcanan kaynaklar açısından da önemlidir. Çünkü özellik vektörleri büyüdükçe, kestirimsel modellerin eğitim süreleri de uzamakta, sınıflandırıcılar daha karmaşık hale gelmektedir. Öte yandan, zaman geçtikçe yazar üsluplarında meydana gelebilecek değişiklikler de kullanılan metin özelliklerinin değiştirilmesi ya da sınıflandırıcıların yeniden eğitilmesini gerektirebilir. Bu tez çalışmasında Türkçe için Yazar Tanıma amacıyla kullanılabilecek sözcüksel ve sözdizimsel metin özelliklerinden hangilerinin yazarları doğru olarak belirlemede en yüksek başarım oranını verdiği, buna ek olarak da başarımı yüksek bir en küçük metin özellikleri kümesinin tespiti araştırılmıştır. Bu amaçla Kaba Küme teorisinden faydalanılarak sınıflandırıcılar oluşturulmuş, belirlenen 37 metin özelliğinden hareketle tanımlanan 6 özellik grubunun bütün kombinasyonları ile, "Zamana Bağımlı" ve "Zamandan Bağımsız" modeller ile değişik zaman aralıkları için deneyler yapılmıştır. Deneyler gerçekleştirilirken, metin özelliklerinin yanısıra sınıflandırıcıların başarımlarının geçen zamanla birlikte değişip değişmediği, değişiyorsa nasıl değiştiği ve ne kadar süre boyunca yeniden eğitilmelerine gerek kalmadan kullanılabilecekleri de incelenmiştir. 12.000'den fazla köşe yazısı üzerinde yapılan 1134 deneyin sonuçları, Türkçe yazar tanımada en başarılı metin özelliklerinin bazı noktalama işaretleri (tire işareti, alt çizgi, taksim (slash) karakteri, ters taksim (back slash) karakteri, parantez, ampersand işareti), olduğunu, ayrıca hangi metin özelliklerinin kullanıldığından bağımsız olarak, sınıflandırıcıların en fazla 1 yıl süre ile yeniden eğitilmelerine gerek olmadan kullanılabileceklerini göstermiştir.
(2014) ANIL AYDIN (MS)
İteratif yazılım geliştirme için hata tahminleme modeli araştırma: Bir durum çalışması
Danışman: YRD. DOÇ. DR. AYÇA TARHAN
[Özet]
Yazılım geliştiren kurumların karşılaştığı en büyük problemlerden biri, geliştirme faaliyetleri için gereken kaynakların ve proje sürelerinin belirlenmesi işidir. Yazılım geliştirme esnasında ortaya çıkan hataların sayılarını ve bu hataları düzeltmek için harcanan efor bilgilerini kaydeden kurumlar, ilgili yazılım ürünlerine ait ortaya çıkmamış hataları ve bu hataları düzeltmek için harcanacak eforu doğru bir şekilde tahmin edebilme yeteneğine sahip olurlar. Literatürde, güvenilirlik modelleri aracılığıyla bu tahminleme sürecini gerçekleştiren birçok çalışma yer almaktadır. Ancak, iteratif olarak geliştirilmiş projelere yönelik tahminleme gerçekleştiren çalışma sayısı oldukça azdır. Bu tez kapsamında, iteratif olarak geliştirilen ve hataların ortaya çıktığı geliştirme faz bilgisinin kaydedilmediği bir kamu projesinin, yeni sürümlerine ait hata yoğunluklarını tahminlemeyi hedefleyen bir durum çalışması gerçekleştirilmiştir. Bu amaçla, ikisi de kendine özgü istatistiksel dağılıma sahip olan Rayleigh Modeli ile Lineer Regresyon Modeli kullanılarak, hem modül hem de proje düzeyindeki hatalılığın iterasyonlar boyunca tahminlenmesi sağlanmıştır. Proje düzeyi için 29 adet; modül düzeyi içinse 15 adet sürüm kullanılarak hata yoğunluklarını tahminleyecek modeller yaratılmıştır. Yaratılan bu modeller ile gerçekleştirilen tahminleme sonuçları incelendiğinde, hem hata yoğunluklarının gösterdikleri dağılımlar izlenerek hem de tahminlenen değerler ile gerçek değerlerin karşılaştırılması yapılarak elde edilen sonuçlar doğrultusunda, modül seviyesinde Rayleigh Modeli'nin; proje seviyesinde ise Lineer Model'in daha performanslı olduğu ve daha güvenilir sonuçlar ürettiği gözlemlenmiştir. Bu tez kapsamında, ilgili tahminleme modellerinin yaratılması ve yaratılan bu modeller ile gerçekleştirilen tahminleme işlemlerine ait sonuçların değerlendirilmesi süreci ve bu süreçte takip edilen prosedür adımları, detaylı olarak anlatılmıştır. Çalışmalar esnasında çıkarılan dersler paylaşılarak iteratif geliştirme için tahminleme konusunda çalışma yürütecek kişilere yol gösterici bir kaynağın sunulması sağlanmıştır.
(2014) ABDULKADİR YAŞAR (MS)
Çok çekirdekli gömülü işlemciler üzerinde gerçek zamanlı sistemler için çoklu görev zamanlayıcı tekniği
Danışman: YRD. DOÇ. DR. KAYHAN M. İMRE
[Özet]
Son yıllarda yapılan çalışmalar ve ortaya çıkan ihtiyaçlar günümüz gömülü sistemlerinin hem gerçek zamanlama yeteneğine hem de genel yeteneklere aynı anda ihtiyaç duyduğunu göstermektedir. Bu iki yeteneği aynı sistem üzerinde gerçekleştirebilmek için birçok araştırmalar, çalışma altyapıları ve farklı teknikler geliştirilmiştir. Çok çekirdekli işlemciler üzerinde birden fazla ve farklı işletim sistemlerinin bir arada çalışmasını sağlayan yaklaşım sistem geliştiriciler arasında en yaygın olanıdır. Yine de heterojen yaklaşımda işletim sistemlerinden bir tanesinde meydana gelecek kritik bir hata tüm sistemin çalışmasını engelleyebilir. Bu yaklaşımın dışında, son zamanlarda harici ve parça tabanlı olmak üzere farklı görev zamanlayıcı teknikleri genel işletim sistemlerine gerçek zamanlama yeteneğini heterojen yaklaşım kullanmadan kazandırmak amaçlı geliştirilmiştir. Bu tez çalışmasında çok çekirdekli donanımlarda heterojen işletim sistemleri çalıştırmayan Çoklu görev zamanlama (Multi-scheduling) ismini verdiğimiz yöntem sunulmaktadır. Bu yöntemde bir işletim sistem içerisinde iki farklı görev zamanlayıcı farklı işlemci çekirdekleri üzerinde çalıştırılmaktadır. Görev zamanlayıcılardan bir tanesi gerçek zamanlı görevler, diğerİ ise genel ya da gerçek zamanlı olmayan görevler içindir. Heterojen sistemlerde işletim sistemlerinden bir tanesi düşük kesilme gecikmesi gibi gerçek zamanlama yetenekleri sunarken, diğer genel amaçlı işletim sistemi de genel amaçlı görevlerde kullanılmaktadır. Ne yazık ki heterojen yaklaşımda gerçek zamanlı ve genel görevler birbirlerinden ayrılmış farklı işletim sistemlerinde çalıştığından sistem tasarımda ve görevler arası iletişimde bazı sorunlara ve zorluklara sebep olmaktadır. Bu çalışmada sunulan çoklu görev zamanlayıcı yönteminde gerçek zamanlı ve genel görevler aynı işletim sisteminde dolayısıyla aynı çevrede çalıştığından bütün sistemin bakımı ve geliştirimi daha kolay olmaktadır. Bu çalışma gömülü sistemlerde ve endüstride birçok kullanım alanına sahip olmasından ve iyi belgelenmesinden dolayı Linux işletim sistemi üzerinde gerçekleştirilmiştir. Linux işletim sisteminin Simetrik çoklu işleme (Symmetric-Multiprocessing) özelliğinin olduğu bazı kesimler değiştirilerek iki farklı görev zamanlayıcının aynı işletim sistemi üzerinde farklı çekirdeklerde çalışması sağlanmıştır. Ayrıca kullanıcılar için bu tekniği yöneten bir de uygulama hazırlanmıştır. Çalışmada geliştirilen yöntem gerçek zamanlı uygulamaların ihtiyaçlarını baz alan ve dünya genelinde kabul görmüş test araçları ve uygulamaları kullanılarak değerlendirilmiş ve yorumlanmıştır. Özellikle kesilme gecikmelerinde gözlemlenen yöntemin kullanılmadığı standart sistemlere göre yaklaşık iki katı iyileştirme ve sistemin ani olaylara daha kararlı cevap vermesi sunduğumuz yöntemin faydalı ve kullanışlı olabileceğini ortaya koymaktadır.
(2014) EMRE AYDOĞAN (MS)
Genetik programlama kullanılarak mobil zararlı yazılımların otomatik olarak üretilmesi
Danışman: YRD. DOÇ. DR. SEVİL ŞEN AKAGÜNDÜZ
[Özet]
Son yıllarda mobil cihazların kullanımı önemli ölçüde artış göstermiştir. Bu akıllı cihazlar, e-posta okuma ve yazmadan, internetten gezinmeye kadar birçok kullanışlı işlevi zaman ve yer kısıtlaması olmaksızın kolay bir şekilde yapabilmemize olanak sağlamaktadır. Bu sebeplerden dolayı, mobil cihazlar günlük yaşantımızın vazgeçilmez bir parçası olmuşlardır. Bu akıllı cihazlar, mobil cihazlara zarar vermek için virüs geliştiricilerin de ilgisini çekmiştir. Son yıllarda, birçok yeni mobil zararlı yazılım ortaya çıkmıştır. Bu nedenle, bu gibi tehditlerden mobil cihazlarımızı korumak için güvenlik şirketleri şimdiden yeni çözüm önerileri geliştirmişlerdir. Fakat bu çözümlerin, mobil cihazların kısıtlı kaynakları ile bilinmeyen zararlı yazılımları tespit edebilmesi oldukça zor ve araştırılması gereken bir konudur. Bu çalışmada, varolan zararlı yazılımlardan genetik programlama yöntemi kullanılarak yeni, evrimleşmiş zararlı yazılımlar geliştirilmesi ve hali hazırdaki antivirüs sistemlerinin bu bilinmeyen zararlı yazılımların tespitine yönelik etkinliği değerlendirilecektir. Deney sonuçları, uygulama marketlerinde bulunan statik analiz yöntemini kullanan antivirüs çözümlerinin zayıflığını ve mobil cihazlar için yeni tespit etme yöntemlerinin gerekliliğini göstermektedir.
(2014) PELİN CANBAY (MS)
Sağlık hizmetlerinde anonimlik: Dağıtık yapılar için ideal bir veri paylaşım modeli
Danışman: PROF. DR. HAYRİ SEVER
[Özet]
Sağlık kuruluşları tarafından elde edilen (kayıt altına alınan) veriler, birçok alanda ileriye yönelik çözümler üretmek için olağanüstü fırsatlar sunmaktadır. Sağlık hizmetleri alanında faydalı sonuçlar üretebilmek için doğru (gerçek - tutarlı) verilerin paylaşılması gerekmektedir. Sağlık sistemlerinde tutulan kişisel sağlık kayıtlarının bireyler ile ilgili hassas bilgiler içermesinden dolayı, bu kayıtların sadece adı, soyadı ve kimlik numarası gibi bilgilerinin çıkarılarak başka hiçbir düzenleme yapılmadan doğrudan paylaşılması, bireysel mahremiyetin ihlal edilmesine sebep olmaktadır. Literatüre bakıldığında, mahremiyet ihlaline sebep olmadan, eldeki verilerden alınabilecek faydayı olabildiğince maksimum seviyede tutmayı hedefleyen birçok mahremiyet korumalı veri paylaşım yaklaşımı geliştirilmiştir. Özellikle son yıllarda Mahremiyet Korumalı Veri Madenciliği (Privacy-Preserving Data Mining (PPDM)) ve Mahremiyet Korumalı Veri Yayıncılığı (Privacy-Preserving Data Publishing (PPDP)) yaklaşımları, kişisel veya kurumsal mahremiyeti korumak adına kapsamlı olarak çalışılmıştır. Bu tez çalışmasında; Mahremiyet Korumalı Veri Madenciliği ve Mahremiyet Korumalı Veri Yayıncılığı yaklaşımları özetlenmiş, sağlık kayıtları çerçevesinde değerlendirilmiş ve sağlık hizmetlerinde, hem mahremiyeti koruyan hem de veri paylaşımına olanak sağlayan bir veri dağıtım modeli önerilmiştir. Burada yapılan çalışmada, dağıtık sağlık kuruluşlarından toplanan verilere, alıcı kurumların ihtiyaçları doğrultusunda bölümleme yapan ve gerekli anonimleştirme ölçütlerini uygulayan, daha sonra bu anonim bilgileri alıcı kurumların hizmetine sunan ideal bir sistem modeli önerilmektedir. Önerilen model; dağıtık veri kümelerinin paylaşımına olanak sağlayan merkezi bir veri dağıtım sisteminin modelidir. Bu modelin gerçekleştiriminde, yatay ve dikey bölümleme teknikleri kullanılarak veriler ayrıştırılmış, daha sonra ayrıştırılan bu veriler k-anonimlik ve ℓ-çeşitlilik ölçütlerine tabi tutularak değerlendirilmiştir. Gerçekleştirme işlemleri olası iki farklı modele daha uygulanmış ve sonuçlar karşılaştırılmıştır. Yapılan işlemler sonucunda, önerilen modelin olası modellere göre hem veri kaybı hem de veri gizliliği açısından en ideal sonucu verdiği gözlemlenmiştir. Önerilen modelin amacı; mahremiyet (gizlilik) koruma ve veri faydası arasındaki dengeyi en ideal seviyede tutmayı sağlamaktır.
(2014) NEVZAT SEVİM (MS)
Fotonik ağlarla bağlı çok çekirdekli işlemciler için yüksek düzeyli mimari (HLA) standardında veri iletişiminin modellenmesi
Danışman: YRD. DOÇ. DR. KAYHAN İMRE
[Özet]
Çok büyük hesaplamalar gerektiren araştırmalar veya çok fazla işlem yetisi gerektiren benzetimler artık tek çekirdekli işlemcilerle çözülememektedir. İşlemcilerdeki çekirdek sayısı arttırılarak bu tür işlemlerin daha hızlı çözülmesi amaçlanmaktadır. Çok çekirdekli işlemciler kendilerine gelen işlemleri üzerlerindeki çekirdeklere paralel bir şekilde dağıtarak görevlerin daha kısa zamanda bitmesini sağlamaktadır. Çok çekirdekli işlemciler birçok farklı problemin çözümünde etkin bir şekilde kullanılabilmektedir. Büyük ölçekli benzetimler, çok sayıda işlem gerektiren ileri düzey matematiksel problemler ve hava durumu hesaplama işlemleri gibi birçok problem koşut işlemle çok daha hızlı çözülebilmektedir ve bu problemlerin çözümüne yönelik birçok koşut işlem algoritması geliştirilmiştir. IEEE tarafından dağıtık simülasyonların geliştirilmesi için önerilen HLA (High Level Architecture) standardı ile uyumlu geliştirilen benzetimler de koşut işlem kullanıldığı zaman çok daha hızlı çalışabilmektedir. High Level Architecture (HLA) bağımsız benzetimlerin entegrasyonunu kolaylaştıran bir standarttır. Bu standart sayesinde farklı platformlarda çalışan benzetimler uyum problemi yaşamadan birbirleriyle haberleşebilmektedir. Benzetimdeki her bir elemana federe denmektedir. HLA üzerinde çalışan RTI mekanizması federeler arasındaki her türlü iletişimi sağlamaktadır. Bu çalışmada RTI'ın federeler arasındaki üye olma mekanizmasını yöneten deklarasyon yönetimi ve veri iletişimini yöneten nesne yönetimi servisleri için çözüm yaklaşımı anlatılmıştır. Bununla birlikte nesne yönetimi servisinin benzetimi yapılarak etkinliği ölçülmüştür. Üstelik önerdiğimiz yöntem, veri dağıtımı için kullanılabilecek etkin yöntemlerden biri olan hasır yöntemi ile karşılaştırılmıştır. Fotonik ağlar, verilerin çekirdekler arasında elektrik sinyalleri ile değil de ışık sinyalleri ile iletildiği ağlardır. Daha henüz laboratuvar ortamında olsa da, işlemciler üzerindeki çekirdeklerin kendi aralarındaki veri iletişiminde de fotonik ağlar kullanılabilmektedir. Bu ağlar yüksek performansları ve az enerji harcamaları sayesinde geleceğin teknolojisi olarak gösterilmektedir. Bu tez kapsamında önerilen yöntemlerde fotonik ağlar kullanılmıştır. Bu çalışma ile HLA'de veri iletişimi için önerilen yöntemin olumlu ve olumsuz tarafları incelendi. Yöntemin olumsuzluklarını azaltmak için hasır yapısının nasıl kullanıldığı anlatılmıştır. Sistem gereksinimleri göz önünde bulundurularak hangi yöntemin kullanılmasının daha mantıklı olacağı incelenmiştir.
(2014) MUHAMMET ALİ SAĞ (MS)
Java iş uygulamaları için yazılım işlevsel büyüklüğünün işletim izlerinden ölçülmesi
Danışman: YRD. DOÇ. DR. AYÇA TARHAN
[Özet]
Yazılım büyüklüğünün ölçülmesi, geliştirme sürecinin tüm evrelerinde, artan yazılım büyüklükleri sebebiyle giderek karmaşıklaşan proje yönetim süreçleri için büyük önem taşımaktadır. Manuel olarak gerçekleştirilen büyüklük ölçme işlemlerinde ölçüm yapan uzmanın bireysel etkisi ölçümlerde farklı sonuçlara yol açabilmektedir. Diğer yandan ölçümlerin gerektirdiği maliyet ve zaman gibi problemlerin yanı sıra ölçmeye girdi olabilecek dokümantasyon eksikliği göz önüne alındığında, ölçme işleminin otomatikleştirilmesi konusu ön plana çıkmıştır. Çalışma kapsamında; COSMIC işlevsel büyüklük yöntemi kuralları çerçevesinde, Java iş uygulamalarının işlevsel süreçlerinin tespiti ve yazılım işlevsel büyüklüğünün otomatik olarak hesaplanması hedeflenmiştir. Yöntem işlevsel büyüklüğü, çalışma zamanında yapılan dinamik analiz yöntemiyle yazılımdan elde edilecek UML Dizge Diyagramları üzerinden hesaplamaktadır. Dinamik analiz için bağlam yönelimli programlama yönteminin Java platformundaki gerçekleştirimi olan AspectJ kullanılmaktadır. Yöntem, yazılım kodunda herhangi bir değişiklik gerektirmeden uygulanabilmektedir. Büyüklüğü hesaplanacak yazılımın işlevsel süreçleri arayüzden tetiklenen olaylar aracılığıyla tespit edilmektedir. Tetiklenen olayların işletim izleri AspectJ ile metin biçeminde dizge diyagramlarına dönüştürülmektedir. Daha sonra bu dizge diyagramları üzerinden veri hareketleri tespit edilerek COSMIC işlevsel büyüklük hesaplanmaktadır. Önerilen yöntemi desteklemek için 'COSMIC Solver' adlı bir prototip araç geliştirilmiştir. Hedefler çerçevesinde yöntemin işe yararlılığı örnek bir ön uygulama ve bir durum çalışması üzerinden doğrulanmıştır. Durum çalışmasında çerçevesi prototipe uygun olarak seçilen Java uygulamasının işlevsel büyüklüğü manuel olarak ve önerilen yöntem/araç kullanarak ölçülmüş ve elde edilen sonuçlar değerlendirilmiştir. Ölçümlerde elde edilen sonuçların birbirine yakınsadığı ve hesaplamada otomasyonla tezde hedeflenen oranın (%80+) üstünde netlik elde edilebildiği görülmüştür. Ayrıca otomatikleştirmenin doğal bir sonucu olarak zaman maliyetinde büyük kazanç (1/10 oranında) sağlanabildiği gözlemlenmiştir.
(2014) ALİ SEYDİ KEÇELİ (PhD)
Derinlik bilgisi kullanılarak insan hareketlerinin tanınması
Danışman: YRD. DOÇ. DR. AHMET BURAK CAN
[Özet]
Derinlik algılayıcılar kullanılarak insan hareketlerinin tanınması günümüzde özellikle oyun endüstrisinde giderek yaygınlaşan bir teknolojidir. Derinlik algılayıcıları ortamlara ilişkin 3 boyuttan elde edilen güvenilir öznitelikler sağlayarak kısa mesafelerde doğru hareket tanıma oranını artırmaktadır. Bu tez kapsamında Microsoft Kinect RGBD algılayıcıdan elde edilen derinlik bilgisini kullanarak insan hareketlerini tanımayı amaçlayan çeşitli yöntemler sunulmaktadır. Hareket tanıma amaçlı olarak ilk önce, bir eklem iskelet modelinden elde edilen açı ve yer değiştirme bilgileri kullanılmıştır. Daha sonra hareketleri zamansal örüntü olarak ele alan Saklı Markov Modelleri ve zaman serilerini temel alan yöntemler üzerine çalışılmıştır. Elde edilen özniteliklerden oluşturulmuş bir sözlük yardımıyla gözlem dizileri haline getirilen hareketler, Saklı Markov Modelleri yardımıyla tanınmaya çalışılmıştır. Hareketler ayrıca zaman serileri olarak ele alınmış ve serilerden elde edilen öznitelikler üzerinde boyut indirgemesi yaparak sınıflama yapan bir yöntem çalışılmıştır. Daha sonra, iskelet modelinden elde edilen nitelikler yanında ham derinlik bilgisi de kullanılarak doğru tanıma oranı yükseltilmeye çalışılmıştır. Son olarak da çalışılan bu yöntemlerden yola çıkılarak düşük gecikmeli hareket tanımaya yönelik bir yöntem önerilmiştir. Geliştirilen yöntemler kendi oluşturduğumuz HUN-3D ve literatürde yer alan ve sıkça kullanılan MSRC-12 ve MSR-Action 3D veri kümeleri üzerinde de test edilmiştir. Geliştirilen yöntemler veri kümelerinden bağımsız olarak kolay hesaplanabilir öznitelikler ile başarılı sonuçlar üretmiştir.
(2014) SERKAN ÇAKMAK (MS)
Eşler arası ağlarda güven tabanlı teşvik modeli
Danışman: YRD. DOÇ. DR. AHMET BURAK CAN
[Özet]
Eşler arası ağlar, kaynak paylaşımı, yönlendirme ve kaynak arama gibi görevlerde eşlerin katkı sağlaması ilkesine göre çalışır. Sisteme katkı sağlayan eş sayısı ne kadar fazla ise sistemin başarısı da o derece yüksektir. Eğer eşlerin bir kesimi, sisteme bu görevlerde katkı sağlamazsa, sistem verimliliği ve etkinliği önemli zarar görür. Bu durum bedavacılık(free-rider) olarak da bilinen problemdir. Bu bedavacılık problemi ile baş edebilmek ve sistemdeki her eşin katkı yapmasını sağlamak için teşvik modelleri geliştirilmiştir. Teşvik modelleri sistemdeki her bir eşin sisteme katkı yapmasını sağlatan modellerdir. Genel amaçları sisteme katkı yapmayan eşlerin sistemden fayda sağlamasını engelleyerek sadece sisteme katkı yapan eşlerin fayda sağlamasını sağlamaktır. Yapılan tez çalışması kapsamında eşler arası sistemlerde güven modeli tabanlı bir teşvik modeli geliştirilmiştir. Güven modeli kapsamında toplanan metrikler kullanılarak geliştirilen bu teşvik modeli ile bedavacılık, geçmişi silme, çoklu kimlik tanımlama problemleri çözülmeye çalışılmış ve güven modellerinin teşvik için de kullanılabileceği gösterilmiştir. Geliştirilen model çeşitli saldırgan tipleri için test edilmiş ve başarılı sonuçlar elde edilmiştir.
(2014) HAMİD AHMADLOUEİ(MS)
Türkçe haber benzerliklerinin belirlenmesinde varlık isimlerinin hikaye bağlantı algılama görevinin başarımına etkisi
Danışman: PROF. DR. HAYRİ SEVER
[Özet]
Tez, Konu Tespit ve Takip (Topic Detection and Tracking - TDT) programında tanımlı Hikaye Bağlantı Algılama (Story Link Detection - SLD) görevinin Türkçe bir derlem üzerinde farklı benzerlik fonksiyonları ve bunların kombinasyonlarını Varlık İsimler üzerinde kullanılarak başarımının test edilmesini ve anma/duyarlık uygun değerlerini sağlayacak kombinasyonun bulunmasını amaçlamaktadır. Bu kapsamda, TDT içerisinde başarısı kanıtlanmış olan Vektör Uzayı Modeli (Vector Space Model) temel yöntem olarak kabul edildi ve bu yöntemle birlikte Varlık İsimlerinin (Named Entity) kullanılmasının başarım üzerindeki etkileri değerlendirildi. Tezde tanımlanan yöntemlerin test edilebilmesi için BilCOL-2005 derlemi haberlerde kim, nerede, ne zaman vs. gibi sorularına yanıt verecek varlık isimlerin sekiz farklı (kişi, konum, zaman, kurum, para, yüzde ve belirsiz) etiketlerle işaretlenerek kullanıldı.
(2013) SİNAN ONUR ALTINUÇ (MS)
Uydu görüntülerinden yarı otomatik kıyı çıkarımı ve fraktalların başarım değerlendirici olarak kullanılması
Danışman: DOÇ. DR. EBRU SEZER
[Özet]
Kıyı çizgisinin tespit edilmesi coğrafi ve jeolojik çalışma için önem teşkil etmektedir. Kıyı çizgisinin bulunması; kıyılarda zamana bağlı değişikliklerin takip edilmesi, deniz kara ayrımının yapılması, erozyon ve kara hareketlerinin gözlenmesi gibi bir çok konuda önemli bir hedeftir. Tez kapsamında renkli uydu görüntüleri üzerinde kıyıların tespit edilmesi için kıyı görüntülerinin istatistiksel özelliklerine dayanan yeni bir kıyı tespit yöntemi sunulmuş ve fraktallar kıyı tespiti başarımını ölçmek için bir başarım ölçüm yöntemi olarak önerilmiştir. Önce filtreleme uygulanarak gürültü azaltılır. HSV renk uzayından doygunluk kanalı alınarak siyah beyaz bir resim oluşturulur. Ardından varyans haritası hesaplama ve eşikleme kullanılarak kıyılar kabaca tespit edilir. Biçimsel ikili görüntü işleme yöntemleri uygulanır. İnsan etkileşimi kullanılarak deniz üzerinde bir nokta seçilmesiyle kıyı çizgisi bulma tamamlanır. Başarım değerlendirmesi, bu yöntemle bulunan kıyı çizgileriyle, el ile çizilen kıyı çizgisinin fraktal boyutları karşılaştırılarak yapılır. Fraktal boyutlar arasındaki fark kıyı tespiti işleminde yapılan hatayı temsil etmektedir. Deney, Google Haritalar'dan ve Quickbird uydusundan alınan renkli uydu görüntüleri üzerinden yapılmıştır. Deney sonucunda görsel değerlendirmeyle kıyıları başarılı bir şekilde bulduğu gözlemlenmiştir. Fraktal boyut değerlendirmesinde görüntülerin çoğunda çok yakın, bir kısmında yakın fraktal boyutlar elde edilmiştir. Varyans haritası yöntemiyle kıyıların çözünürlüğe bağlı olarak başarılı bir şekilde bulunduğu ve fraktal boyutun ayrıntı düzeyindeki hataları tespit etmekte başarılı bir yöntem olduğu sonucuna varılmıştır.
(2013) SEYFULLAH DEMİR (MS)
Lingo algoritmasının kümelerle ilişkili dokümanların belirlenmesi ve küme etiketlerinin çıkarılması aşamalarının iyileştirilmesi
Danışman: PROF. DR. HAYRİ SEVER
[Özet]
Arama Sonucu Kümeleme (ASK) algoritmaları, kullanıcıların arama motorları üzerinde aradıkları sonuçlara daha kolay erişebilmeleri için geliştirilen algoritmalardır. İyi bir ASK algoritmasının hem arama sonuçlarını doğru kümelemesi, hem de oluşturduğu kümelere; kümeleri temsil edebilen, anlaşılır ve anlamlı etiketler üretmesi beklenir. Lingo algoritması her iki kritere de önem veren popüler bir ASK algoritmasıdır. Lingo algoritması, oluşturduğu kümeler için bahsedildiği şekilde başarılı etiketler üretebilmektedir; ancak kümelerin elemanlarını belirleme konusunda bazı eksiklikleri bulunmaktadır. Algoritmada uygulanan kümelere doküman atama stratejisinin sonucu olarak, küme etiketlerindeki terimleri içermeyen; ancak, aslında etiketlerle anlamsal olarak ilişkili olan dokümanlar ilgili kümelere atanamamaktadır. Ayrıca, sonuç küme etiketlerinin belirlenmesi için kullanılan yöntem, az sayıda ilgili sonuç içeren kümelerin ortaya çıkmasına neden olmaktadır. Bu eksiklikler düşük anma (recall) değerine sebep olmaktadır. Bu tezde, Lingo algoritmasındaki sözkonusu eksiklikleri gidererek iyileştirme sağlamayı amaçlayan; ilki kümelere ilişkili dokümanların atanması aşamasında, diğeri kümelerin etiketlerinin çıkarılması aşamasında olmak üzere iki değişiklik önerisi sunulmaktadır. Deney sonuçları, önerilen değişikliklerin anma değerini büyük oranda iyileştirdiğini göstermektedir.
(2013) TURGAY ÇELİK (PhD)
Koşut ve dağıtılmış benzetim sistemleri için uygun yerleştirme alternatiflerinin türetilmesi
Danışman: YRD. DOÇ. DR. KAYHAN M. İMRE
[Özet]
Koşut ve dağıtılmış benzetim sistemlerinin gerçekleştirimini kolaylaştırmak için HLA, DIS ve TENA gibi değişik benzetim altyapıları tanımlanmıştır. Yakın zamanda benzetim sistemlerinin benzetim altyapılarına eşlenmesini destekleyen Dağıtık Benzetim Mühendisliği ve Çalıştırma Süreci (Distributed Simulation Engineering and Execution Process- DSEEP) tanımlanmıştır. DSEEP’te tanımlanan önemli önerilen işlerden birisi benzetim sisteminin performansının tasarım aşamasında değerlendirilmesidir. Bir benzetim sisteminin başarımı, sistemi oluşturan uygulamaların kaynaklara atanma konfigürasyonundan önemli ölçüde etkilenir. Uygulamaların kaynaklara yerleştirilmesi genelde pek çok farklı yöntemle gerçekleştirilebilir. DSEEP yerleştirme seçeneklerinin değerlendirilmesi için somut bir yöntem tanımlamaz. Bunun yanı sıra, değişik DSEEP adımlarını gerçekleştirmek için tanımlanmış mevcut yaklaşımlar da bu amaca yönelik yeteri kadar destek sağlamamaktadır. Bu çalışmada benzetim sistemi ve mevcut donanım kaynaklarına göre uygun yerleştirme seçeneklerinin türetilmesi için somut bir yaklaşım geliştirilmiştir. Yaklaşımda, ilk adımda benzetim bileşenleri ve donanım kaynakları tasarlanmaktadır. İkinci adımda, bu tasarım kullanılarak çalıştırma konfigürasyonu seçenekleri tanımlanır. Son adımda ise, önceki iki adımda oluşturulan tasarım ve çalıştırma konfigürasyonu seçenekleri kullanılarak uygun bir yerleştirme seçeneği algoritmik olarak türetilebilir. Bu çalışmada geliştirilen yaklaşımı destekleyecek bir araç ailesi de geliştirilmiştir. Araç ailesi ile benzetim ortamı tasarımının yapılması ve uygun yerleştirme konfigürasyonlarının otomatik olarak türetilmesi işlemleri gerçekleştirilebilir. Geliştirilen yaklaşım endüstriyel karşılığı olan geniş ölçekli iki farklı benzetim sistemine uygulanmıştır.
(2013) FATİH MEHMET GÜLEÇ (PhD)
Kaba küme teorisinin literatür tabanlı bilgi keşfine uygulanması
Danışman: PROF. DR. HAYRİ SEVER
[Özet]
Bilim, merak edileni açığa kavuşturmak için yapılan disiplinli akademik çalışmalar bütünü olarak düşünülebilir. Akademik çalışmaların sonuçları, diğer araştırmacılar ile paylaşımı sağlamak amacıyla bilimsel bir uslup ile yayınlanırlar ve bu yayınlar akademik çalışmaların en önemli çıktısı olarak kabul edilir. Bu yayınların diğer bilim insanları tarafından incelenmesi ve kişilerdeki mevcut bilgi birikimleri ile harmanlanması sonucu yeni araştırma fikirleri ortaya çıkabilmektedir. İnsan beyninde yeni araştırma fikirlerinin nasıl oluştuğunu simule ederek, akademik yayınları bilişim sistemleri ile inceleyen çalışmalar Literatür Tabanlı Bilgi Keşfi olarak adlandırılmıştır. Literatür Tabanlı Bilgi Keşfinde, bir yayında geçen terimlerin karşılıklı ilişkilendirilmesi ile bilgi parçaları oluşturulmaktadır. Bu bilgi parçalarının zincirleme şekilde kurulması ile yeni fikirlere ulaşılmaya çalışılmaktadır. ABC olarak isimlendirilen bu modelde, odaklanılan araştırma konusu üzerinden yola çıkılarak, “o konuyla doğrudan ilişkili olmayan” ancak “ortak terimler üzerinden dolaylı ilişkisi bulunan” terimler, yeni ve özgün fikirler olarak kullanıcıya sunulmaktadır. Bugüne kadar yapılan bir çok çalışma tıp alanındaki yayınlara odaklanmıştır. Tez çalışmasında da tıp alanında yayınlanmış makaleler, ana bilgi kaynağı olarak kullanılmıştır. Literatür Tabanlı Bilgi Keşfi çalışmalarında bazı ortak problemler bulunmaktadır. Bu problemlerin başında, sonuç kümesinin aşırı gürültülü olması gelmektedir. Tıp alanında çok sayıda bilimsel terim bulunmaktadır ve bu terimlerin bir kısmı birbirine çok yakın anlamlar taşımaktadır. ABC modelinin terimler üzerinden kurulması sebebiyle birbirine çok benzer çıkarımlar ‘kombinasyonel’ olarak oluşmakta ve sonuç kümesi kontrolsüz olarak büyümektedir. Tez çalışmasında terimler yerine, birden çok terimi temsil eden ‘kavramların’ kullanımı sağlanmıştır. Ne çok genel, ne de çok özel olan terimler, kavram olarak işaretlenmiş ve tüm analiz kavramlar kullanılarak gerçekleştirilmiştir. Bugüne kadar yapılan bütün çalışmalarda, ABC modeli Literatür Tabanlı Bilgi Keşfi araçlarının çekirdek işlevi olarak görülmüştür. Yapılan çalışma ile A ve C terimi arası ilişki bir B terimi olmaksızın, doğrudan yayın kümeleri üzerinden kurulmuştur. Bu amaçla önce PubMed veri tabanında bulunan 16 milyon yayın kümelenmiş ve toplam 50.000 küme oluşturulmuştur. Ortalama küme büyüklüğü 320 yayın olarak gerçekleşmiştir. Bu yeni yaklaşımla, rasgele seçilen 80 terim için ortalama anımsama değeri 0.52, ortalama duyarlık değeri ise 0.16 olarak ölçülmüştür. Benzer çalışmalara göre hem anımsama hem de duyarlık değerinde iki kata varan bir iyileşme elde edilmiştir. Literatür Tabanlı Bilgi Keşfine yönelik temel mantık korunurken, işletim mantığının tamamen geliştirilmesi ve farkedilir bir başarının elde edilmesi, diğer araştırmacıların da farklı boyutları ile konuyu yeniden düşünmesini sağlayacaktır. Literatür Tabanlı Bilgi Keşfi, bilimsel yayınlarda varlığını gösteren tüm insanlığa ait bilgi birikimini, harmanlayarak daha yeni keşiflere yol açmanın hayalini gütmektedir. Yapılan çalışmalar ve elde edilen ilerlemeler, bu alanda harcanan emeğin zaman içerisinde karşılığını vereceğini göstermektedir.
(2013) YASİN ŞAHİN (MS)
Zaman serilerine dayalı salgın tespit algoritmalarını karşılaştırma amaçlı bir yazılım aracının tasarım ve gerçekleştirimi
Danışman: PROF. DR. ALİ SAATÇİ
[Özet]
11 Eylül 2001 saldırılarının ardından, biyolojik teröre karşı erken uyarı sistemleri önem kazanmıştır. Bu bağlamda EARS(Early Abberation Reporting System) geliştirilmiş ve olası bir biyolojik terör saldırısının, aykırı bir durum olarak otomatik tespiti hedeflenmiştir. EARS yazılımının kullandığı klasik algılama yöntemlerinin, yavaş yayılan salgınların kaynağını bulmadaki başarımı düşük olduğundan, araştırmacılar, özellikle Cusum(Cumulative Sum), EWMA(Exponentially Weighting Moving Average), NBC(Negative Binomial Cumulative Sum) gibi istatistiksel süreç yöntemlerini (SPC) kullanarak kıyaslama yapmış; bunun sonucunda sistem başarımının veri kümesine bağımlı olduğu tespit edilmiştir. Bu tez kapsamında, bu amaca dönük olarak, WEB tabanlı bir yazılım aracı geliştirilmiş; bu araç ile, bir araştırmacının elindeki veri kümesine uygun veri ön-işleme ve uygun istatistiksel algılama (salgın tespit) yöntemini belirleyebilmesi amaçlanmıştır.
(2013) AHMET ATA AKÇA (MS)
Java iş uygulamaları için çalışma zamanında COSMIC işlevsel büyüklük hesaplanması
Danışman: YRD. DOÇ. DR. AYÇA TARHAN
[Özet]
Yazılımların işlevsel büyüklüklerinin ölçülmesi, yazılım projelerinin yönetiminde önemi giderek artan bir konudur. Yazılım büyüklüklerinin, geliştirme sürecinin ilk evrelerinden, geliştirme sonuna kadar her adımda ölçülebilir olması, artan yazılım büyüklükleri sebebiyle giderek karmaşıklaşan proje yönetimi süreci için büyük önem taşımaktadır. İşlevsel büyüklük ölçme manüel olarak yapıldığında oldukça zaman alıcı ve maliyetli olmaktadır. Bu noktada ölçme işleminin otomatikleştirilmesi konusu ön plana çıkmıştır. Bu tez kapsamında, üç katmanlı mimariye sahip Java iş uygulamalarının kullanıcı arayüzü üzerinden tetiklenen işlevsel süreçlerinin, geliştirdiğimiz “Measurement Kütüphanesi” kullanılarak keşfedilmesi ve bu işlevsel süreçler içinde gerçekleşen veri hareketlerinin izlenmesi yolu ile yazılımın COSMIC işlevsel büyüklüğünün, çalışma zamanında otomatik olarak ölçülmesi amaçlanmıştır. Kütüphane’nin kullanılabilmesi için, hazırlanan “Measurement Kütüphanesi ile Ölçme Kılavuzu” belgesinde belirtilen kod ekleme işlemlerinin yapılması gerekmektedir. Measurement Kütüphanesi kullanılarak gerçekleştirilen ön uygulamada kütüphane, basit bir öğrenci kayıt sistemi içinden (“import” edilerek) kullanılmış ve uygulamanın büyüklüğü, arayüz üzerindeki her işlevin bir kez tetiklenmesi sonrasında otomatik olarak ölçülmüştür. Otomatik ölçme sonuçlarının doğruluğunun karşılaştırılabilmesi amacıyla aynı uygulama için manuel ölçüm gerçekleştirilmiştir. Otomatik ölçülen ve manuel olarak hesaplanan COSMIC işlevsel büyüklüklerinin %92 oranında yakınsadığı görülmüştür. Alınan bu sonuçlar Measurement Kütüphanesi’nin doğru tasarlandığını ve uygulanabilir olduğunu göstermiştir. Daha sonraki aşamada, çalışmalarımız, Measurement Kütüphanesi kullanılarak yapılan ölçme işleminin manuel yapılan ölçme işlemiyle kıyaslandığında maliyet-etkin olup olmadığının belirlenmesi üzerine yoğunlaşmıştır. Yapılan üç farklı durum çalışması ile otomatik ölçme işleminin maliyet-etkinlik değerlendirmesi yapılmıştır. Elde edilen sonuçlar kütüphanenin yazılım geliştirme süreci tamamlandıktan sonra yazılıma entegre edildiği durumda, ekleme yapan kişinin yazılıma aşina olmadığı durum için maliyet-etkin olarak kullanılamadığını; kütüphanenin yazılım geliştirme sürecine en baştan entegre edilmesi ile yapılan otomatik ölçümde ise manuel yapılan ölçme işlemine göre %500’lere varan oranda maliyet kazancı sağladığını göstermiştir. Geliştirilen “Measurement Kütüphanesi”nin, yazılımların işlevsel büyüklüklerinin otomatik olarak ölçülmesi konusunda izlediği yöntem bakımından bir ilk olması sebebiyle, bu alanda yapılacak diğer çalışmalar için temel oluşturması beklenmektedir. Gelecek çalışmalarda kütüphane geliştirilerek daha geniş kapsamda kullanılabilir. Kütüphanenin yazılım geliştirme süreci tamamlandıktan sonra yazılıma entegre edildiği durumlar için, kütüphaneyi kullanmanın gerektirdiği kod ekleme işlemlerinin otomatikleştirilerek maliyetin düşürülmesi hedeflenmektedir.
(2012) KAZIM SARIKAYA (MS)
SSL/TLS protokolü için parolaya dayalı istemci doğrulamanın Elgamal ve Chebyshev polinomları ile gerçekleştirimi
Danışman: YRD. DOÇ. DR. AHMET BURAK CAN
[Özet]
İnternet üzerinde yapılan haberleşmeler sırasında gönderilen bilginin güvenliği önemli bir problemdir. Bu amaçla tanımlanan SSL/TLS protokolü, İnternet üzerinde şifrelemeye dayalı güvenli bir kanal oluşturulması için bir standart olarak kullanılmaktadır.Bir SSL/TLS bağlantısında, istemciyi doğrulamak için sunucu tarafından bir istemci sertifikası istenebilir. Fakat bu yöntem, istemcilerin sertifika edinmesini gerektirdiğinden maliyetlidir. Bu nedenle genelde, güvenli kanal açılınca, istemci doğrulaması için kullanıcı adı ve parola ikilisi sunucuya gönderilir. Kullanıcı adı ve parola ile istemci doğrulama birçok uygulamada ihtiyaç duyulduğu için, bu yöntemin SSL/TLS protokolü içine taşınması uygun görülmüştür. Bir SSL/TLS protokolü genişletmesi olan TLS-SRP protokolü, kullanıcı adı ve parola ile istemci doğrulama işlemini yapar.Tez çalışmasında, TLS-SRP protokolüne bir alternatif olarak, Chebyshev Polinomları ve ElGamal şifreleme algoritmasına dayalı, kullanıcı adı ve parola ile istemci doğrulama desteğini SSL/TLS protokolü içinde yapan beş farklı TLS genişletmesi geliştirildi. Bu genişletmelerin güvenliği incelenerek TLS-SRP protokolü ile karşılaştırıldı. Ayrıca tasarlanan genişletmeler, OpenSSL yazılım kütüphanesine eklendi ve TLS-SRP ile performans karşılaştırması yapıldı.
(2012) TUĞBA GÜRGEN (MS)
Yazılım süreç doğrulama için bütünleşik bir alt yapı
Danışman: YRD. DOÇ. DR. AYÇA TARHAN
[Özet]
Bu tez kapsamında; yazılım süreç doğrulama için süreç madenciliği tekniğini destekleyecek bütünleşikbir altyapının geliştirilmesi hedeflenmiştir. Bu altyapı ile süreç madenciliği alanında kullanılanalgoritmaların kullanımını sağlayan bir yazılım, yazılım ve sistem mühendisliği süreçlerininyönetimini destekleyen açık-kaynak kodlu EPF aracına eklenti olarak geliştirilmiştir.Eklentinin amacı, durum ya da olay esaslı işleyen ve akışı bir araç tarafından desteklenenbir yazılım sürecinin, gerçekte oluşan olay kayıtları ve verisi üzerinde süreç madenciliğitekniklerini kullanarak; aynı yazılım sürecinin EPF aracı ile tanımlanan süreç modeline göredoğrulanmasıdır. Bu amaca yönelik olarak, süreç tutarlılığının araştırılması için UygunlukAnalizi (?Conformance Analysis?) bileşeni, sürecin farklılaşan uygulamalarının tespiti içinSüreç Varyasyon Analizi (?Process Variants Mining?) bileşeni ve süreç performansınınve kararlılığının değerlendirilmesi için İstatistiksel Analiz (?Statistical Analysis?) bileşeni,eklentiye dâhil edilmiştir.Geliştirilmiş bütünleşik altyapının, bu alandaki başka çalışmalara da konu olabilecekyazılım süreç madenciliği yöntemlerinin desteklenmesi için temel oluşturması düşünülmektedir.
(2012) SEDA TANKIZ (MS)
İçerik tabanlı video kopya tespiti
Danışmanlar: PROF. HAYRİ SEVER ; YRD. DOÇ. DR. NAZLI İKİZLER CİNBİŞ
[Özet]
Çoğul ortam ve iletişim teknolojileriyle birlikte sayısal ortamların varlığı muazzam bir şekilde artmıştır. Bu da beraberinde büyük boyuttaki videoların yönetilmesini, içeriklerinin analiz edilmesini ve fikir haklarının korunmasını gerekli kılmıştır. Gizli damgalama yöntemine alternatif olan içerik tabanlı kopya tespiti hem akademi hem de endüstri dünyasının ilgiyle araştırdığı bir konudur. Bu tez kapsamında, bir içerik tabanlı video kopya tespit metodu önerilmiştir. Önerilen yöntem temel olarak video bölütleme, öznitelik çıkartma ve videoların eşleşmesi aşamalarından oluşmaktadır. İlk olarak videolar segmentlere ayrılır. Daha sonra her bir çerçeveden öznitelikler çıkartılır. Son olarak da kopyalar oylama tabanlı eşleme yöntemi ile tespit edilir.Önerilen yöntem TRECVID 2009 içerik tabanlı kopya tespiti verisi ile test edilmiştir. Özniteliklerden elde edilen sonuçların karşılaştırılması yapılmıştır.
(2012) KEREM ERZURUMLU (PhD)
Gömülü işletim sistemleri için başarım amaçlı öbek tabanlı yeni bir yöntem ve bu yöntemin ince istemciler temelinde gerçekleştirimi
Danışman: PROF. DR. HAYRİ SEVER
[Özet]
İşletim sistemleri, günümüz bilgisayar bilimlerinin temel yapı taşlarından biridir. Bu temel yapı taşı, son kullanıcı işletim sistemleri ve gömülü işletim sistemleri olarak kendi içinde sınıflara ayrılmaktadır. Gömülü işletim sistemleri genellikle kısıtlı donanım bileşenleri üzerinde belirli bir işi gerçekleştirmek üzere çalışmaktadırlar. Çoğu durumda bu sistemlerin başarımları yapmakta oldukları işlemler için kritik öneme sahiptir. Gömülü işletim sistemlerinin çok geniş bir kullanım alanı olmasına rağmen, bu tez kapsamında ince istemciler ve bu istemciler üzerinde bulunan gömülü işletim sistemleri temel alınmıştır. Bu şekilde mümkün olan en geniş uygulama alanı ve donanım desteği önerilmiş olan yeni yöntem ile test edilebilmiştir.Bu tez kapsamında, başta ince istemci mimarisi olmak üzere, her türlü bilgisayar mimarisi ile de çalışabilecek, bir işletim sistemi sıkıştırma yöntemi önerilmiş ve tasarlanmıştır. Kütük yönetim sistemi bazında sıkıştırma işlemlerinin işletim sistemi başarımı üzerindeki olumsuz etkisi göz önüne alındığında, tasarlanmış olan sıkıştırma yöntemi işlemi işletim sistemi bazında yapılmış ve gerçekleştirilmiştir.Ayrıca tez kapsamında, geliştirilmiş olan sıkıştırma yöntemi, günümüzde kullanılmakta olan yaygın yöntemler ile gerektirdiği depolama alanı ve başarım kriterleri ile karşılaştırılmış ve bu karşılaştırma sonuçları ayrıca değerlendirilmiştir.
(2012) MEHMET SÖYLEMEZ (MS)
Dikey hata sınıflandırması ve yazılım geliştirme süreci bağlam bilgisi kullanılarak hataların kök sebeplerinin incelenmesi
Danışman: YRD. DOÇ. DR. AYÇA TARHAN
[Özet]
Bu tez kapsamında; TÜBİTAK - BİLGEM - UEKAE / Yazılım ve Veri Mühendisliği Bölümü (G222)'nün yazılım geliştirme sürecini ve ürün kalitesini iyileştirmek amacıyla, geliştirme süreci içerisinde kaydedilen, ürünün kalitesi için kritik öneme sahip hataların analizi ve bu hataların tekrar oluşmasını önlemek için önerilen yöntem anlatılacaktır.Yöntem ile hataların kök sebeplerinin incelenmesi ve ileride tekrarlamaması için önleyici tedbirlerin alınması amaçlanmıştır. Bu amaca yönelik olarak Dikey Hata Sınıflandırması (?Orthogonal Defect Classification?) tekniğini ve hataların çıktığı yazılım geliştirme sürecinin bağlam bilgisini birlikte ele almak önerilmektedir. Yöntemin uygulanması ile hataların hem süreç yönünden hem de teknik yönden analizi yapılarak kaliteli ve güvenilir ürünler elde edilmesi hedeflenmektedir. Yöntemin gerçekleştirilebilirliği, örnek bir uygulama üzerinde gösterilmiş ve hataların kök sebeplerine ulaşılabildiği görülmüştür. Ayrıca, kök sebeplerine ulaşılan hataların bir daha tekrarlamaması için alınması gereken tedbirlerin neler olabileceği belirlenmiştir. Yöntemin uygulanması ile elde edilen ölçme sonuçları değerlendirilmiş ve yöntem uygulanmadan önceki hataların durumu ile karşılaştırılmıştır. Karşılaştırma sonuçları önerilen yöntemin geliştirme sürecini ve ürün kalitesini iyileştirebileceğini göstermektedir.
(2011) SEDA GÜNEŞ (MS)
Yazılım geliştirmede çevik ve artırımsal süreç performanslarının nicel karşılaştırması: Bir durum çalışması
Danışman: YRD. DOÇ. DR. AYÇA TARHAN
[Özet]
Yazılım projelerinin başarılma oranının düşüklüğü sebebiyle 1990'larda mevcut geliştirme modelleri sorgulanmaya başlanmış ve izleyen yıllarda Çevik modeller, Geleneksel modellere alternatif olarak önerilmiştir. 1990'lardan bu yana kullanıldıkları halde, Çevik modelleri kullanmanın geliştirme performansına etkilerini nicel olarak ortaya koyan çalışma sayısı azdır. Bunun önemli sebepleri arasında, çevik yöntemlerin ölçülmesindeki zorluk ve organizasyonlarda daha önce kullanılan geliştirme modellerinin performansının, karşılaştırmaya temel olacak şekilde ölçülmemiş olması gösterilebilir.Bu tezde, orta ölçekli bir organizasyon içinde projelerde uygulanan Artırımsal ve Çevik Süreçlerin performansı; Tasarım, Gerçekleştirme, Sistem Test ve Ürünün Müşterideki Kullanımı aşamaları açısından incelenmiş ve nicel olarak karşılaştırılmıştır. Karşılaştırma öncesinde süreçlerin nicel analizi için sistematik bir yöntem tanımlanmış ve Artırımsal ve Çevik süreçlerin performansını ve ürün kalitelerini anlamak için uygulanmıştır. Yöntem kapsamında, analiz hedeflerini ve ilgili ölçevleri belirlemek amacıyla Hedef-Soru-Ölçü Çatısı kullanılmış, nicel analiz öncesinde süreçlerin kapsamını ve ölçev özelliklerini anlamak için önceden tanımlanmış bir değerlendirme yaklaşımından faydalanılmıştır. Artırımsal ve Çevik Süreçler için elde edilen analiz sonuçları, Hedef-Soru-Ölçü Çatısı kapsamında tanımlanan hedefler doğrultusunda değerlendirilmiş ve kıyaslanmıştır.Tanımlanan yöntem izlenerek farklı projelere ait özellikler, zamanla analize dahil edilebilir. Böyle bir çabanın, analiz sonuçlarının organizasyon genelinde kullanılabilmesi için fayda sağlayacağı düşünülmektedir.
(2011) HÜSEYİN TEMUÇİN (MS)
Torus ağı benzetiminin çok işlemcili mimariler için gerçekleştirimi
Danışman: YRD. DOÇ. DR. KAYHAN M. İMRE
[Özet]
İşlemci hızlarının doğal sınırlara ulaşması ve sektörlerde her gün artan işlem kapasitesi ihtiyaçları, işlemci mimarilerinde koşut sistemleri zorunlu kılmıştır. Günümüzde bilgisayar sistemlerinin bütünü büyük ve küçük ölçekli çok işlemcili sistemlere dönüşmüşlerdir. Çok işlemcili mimarilerin yaygınlaşması, bu mimarilerin ve mimariler üzerinde yapılan çalışma ve tasarımların önemini artırmıştır.Bilgisayar sistemleri gibi fiziksel testlerin çok maliyetli ve uzun sürelere mal olduğu alanlar, sistemleri modelleyen benzetimlerin gereksinimini artırır. Benzetimler bilimsel ve ticari alanlarının bütününde yoğun biçimde kullanılırlar.Tez kapsamında, çok işlemcili sistemlerde kullanılan bir ağın benzetimi yapılmıştır. Benzetimi yapılan ağ torus topolojisine sahiptir ve wormhole anahtarlama modelini kullanmaktadır. Benzetimi yapılan ağ wormhole anahtarlama üzerinde yapılmış durağan ve kaynak kararlı yönlendirme algoritmalarını desteklemektedir. Benzetim koşut benzetim olarak kesikli olay benzetimi kapsamında gerçekleştirilmiştir. Benzetim java programlama diliyle geliştirilmiştir. Geliştirilen benzetimin tasarım detayları anlatılmış ve üzerinde yapılan testlerin sonuçları tartışılmıştır.
(2010) İBRAHİM TANRIVERDİ (MS)
Bir grafik işlemci (GPU) için MPI (message passing ınterface) yazılım kitaplığının tasarımı ve gerçekleştirimi
Danışman: YRD. DOÇ. DR. KAYHAN İMRE
[Özet]
MPI, koşut programlama için tasarlanmış ileti geçirme arayüzü belirtimidir. Taşınabilir, kolay uygulanabilir, hızlı ve esnek koşut uygulamalar geliştirmek için tanımlanmıştır. Birçok sistem sağlayıcı, bilim insanı ve uygulama geliştirici tarafından desteklenen ve bilgisayar bilimi öğrencileri tarafından bilinmesi gereken önemli bir standarttır.Uygulama geliştirmek için koşut bilgisayar sistemlerinin oluşturulması ve bakımı yüksek maliyet gerektirir. Küçük bir aygıt olan ekran kartında ise grafik işleme için özelleşmiş, yüksek yetenekleri olan birçok grafik işlemci (GPU) bulunmaktadır. Koşut olarak çalışan bu işlemciler, yakın zamanda genel amaçlı uygulama geliştirmeye uygun bir ortama dönüşmüştür. Ayrıca, ekran kartları çoğu kişisel bilgisayardan daha yüksek veri işleme ve belleğe erişim başarımına sahiptir.Tez çalışmasında, grafik işlemciler için MPI yazılım kitaplığının en çok kullanılan yordamlarının gerçekleştirimi yapılmıştır. Geliştirilen kitaplığın başarımı, bazı koşut uygulamalar ve MPI algoritmaları ile test edilmiştir.
(2010) TAHİR BIÇAKCI (MS)
Biyomedikal kavramların ilaç araştırmaları için kullanılması
Danışman: PROF. DR. HAYRİ SEVER
[Özet]
Araştırmacılar kendi alanlarında ortaya çıkan ilerlemeleri yakalamak amacıyla bilimsel yayınları içeren sayısal kütüphaneleri yakından takip etmek zorundadır. Biyomedikal alanda bilimsel yayınların büyük hacimlerde olması, yeni çalışmaların takip edilmesini zorlaştırmaktadır. Bu bilgi yığını içerisinde aranan bilgiye daha kolay erişimi sağlayan araçlar sunulmuştur. Bu araçların yanında, alan uzmanlıklarına göre özelleşmiş ve akıllı kararlar verebilen ek araçlara her geçen gün ihtiyaç artmaktadır.Literatür Tabanlı Bilgi Keşfi Araçları (LTB), büyük metin tabanlı bilgi kaynakları üzerinde, sahip olduğu alan bilgisi ile yeni hipotezler üretmeyi hedeflemektedir. LTB, biyomedikal alanda hazırlanmış bilimsel makaleler üzerinde kavramlar arası ilişkilerin kurulmasını ve kurulan bu ilişkilerin incelenmesi ile yeni hipotezlerin üretilmesini sağlamaktadır.Tezde LTB alanında yapılan bir çok çalışmanın önemli görülen yönleri bir araya getirilerek bütünleşik bir LTB aracı üretilmesi sağlanmıştır. Biomedikal alanda genel kabul görmüş Medline yayın veri tabanını bilimsel bilgi kaynağı olarak kullanılmıştır. Bu kaynaktan elde edilen metinsel verilerden biyomedikal terimler tespit edilmiş ve metinlerde bir arada bulunmaları gözetilerek terimler arası ilişkiler kurulması sağlanmıştır.LTB araçlarının başarımı, bilgi erişimi alanında kullanılan duyarlık ve hatırlama değeri ile ölçülmektedir. Tezde geliştirilen araç, yüksek duyarlık ve hatırlama değerleri ile benzeri araçlardan ayrılmaktadır.
(2010) YİĞİTCAN AKSARI (MS)
Yeraltı su kaynaklarının analizi ve modellenmesinde grafik işlem birimlerinin (GPU) kullanılması
Danışman: YRD. DOÇ. DR. HARUN ARTUNER
[Özet]
Yeraltı su kaynaklarının modellenmesi, kısmi diferansiyel denklem dizgelerinin çözülmesini gerektiren bir konudur. Bu konuda pek çok yazılım geliştirmiştir, ancak bu yazılımların büyük dizgeleri modellemede tatmin edici başarım gösteremedikleri görülmektedir.Bu yazılımların çalışma zamanında iyileştirme sağlanması, uygun algoritmaların koşut mimarilerde gerçekleştirilmesi ile mümkündür. Ancak bilgisayar kümeleri gibi yüksek maliyetli donanımlar gerektiren gerçekleştirimlere sadece küçük bir kullanıcı kesimi erişebilmektedir. Vektör bilgisayar benzeri yapılara sahip olan Grafik İşlem Birimleri (GİB) kullanarak bu hızlandırmaların ucuz maliyetle son kullanıcıya ulaştırılması mümkündür.Tez çalışmasında, yeraltı su kaynaklarının modellenmesinde yaygın olarak kullanılan MODFLOW yazılımı incelenmiştir. Yazılımda dar boğaz oluşturan iki önkoşullandırma algoritması ile eşlenik gradyan yöntemi GİB üzerinde gerçekleştirilmiştir. Geliştirilen yöntem mevcut uygulama ile başarım açısından karşılaştırılmış ve sonuçları tartışılmıştır.
(2010) HAMDİ YALIN YALIÇ (MS)
Türkiye karayollarındaki trafik işaretlerinin otomatik tanınması
Danışman: YRD. DOÇ. DR. AHMET BURAK CAN
[Özet]
İlerleyen bilgi teknolojileriyle birlikte, akıllı taşıtların ve sürücü destek sistemlerinin günlük hayatımızda daha çok yer edinmesi kaçınılmazdır. Bu tür taşıtlar trafik işaretleri yardımıyla yol hakkında pek çok bilgi edinebilirler. Bu bilgiyi kullanarak sürücüyü uyarabilecekleri gibi, aracın kontrolünü sağlayarak daha konforlu bir sürüş ortamı da yaratabilirler. Ayrıca trafik işaretlerinin zamanında ve yerinde tespiti, güvenli bir sürüş sağlanmasında da en önemli etkendir. Trafik işaretlerinin gerçek zamanlı ve otomatik olarak tanınması, kazaların azalmasına yardımcı olacaktır.Bu tez kapsamında, Türkiye Karayollarındaki trafik işaretlerinin otomatik tanınması ve eşleştirilmesi için geliştirilen bir yaklaşım anlatılmaktadır. Trafik işaretinin bir sahne içerisinden tespiti için renk bilgileri kullanılmış, çeşitli görüntü işleme teknikleri uygulanarak işaretin bulunduğu bölge elde edilmiştir. Trafik işaretinin tespit edildiği bölgeden çıkarılan niteliklerle, veritabanındaki işaretlerin nitelikleri arasında bir eşleme yapılarak işaretin türü tespit edilmektedir. Geliştirilen yöntemde çeşitli çevrelerde, farklı boyutlarda ve görüş açılarında olan işaretler tanınabilmektedir. Yöntemin hız başarımı gelecekte bir gerçek zamanlı sistem gerçekleştirimine olanak sağlayacak düzeydedir.
(2010) ÖNDER KESKİN (MS)
Ontoloji tabanlı kaynak kod sorgulama için bir aracın tasarımı ve gerçekleştirimi
Danışman: DOÇ. DR. EBRU SEZER
[Özet]
Yazılım mühendisliğinde, yazılım üzerinde kaynak kodun bakımı ve analizi gibi temel işlemlerin gerçekleştirilebilmesi için, kodun anlaşılabilmesi son derece önemli bir konudur.Kaynak kod sorgulama araçları, kod öğeleri arasındaki ilişkilerden faydalanarak sağladıkları sorgulama imkanı ile kod hakkında ileri düzeyde bilgi edinilmesine, dolayısı ile kodun hızlı ve etkin bir şekilde incelenmesi ve anlaşılabilmesine olanak sağlarlar.Bu tez kapsamında, Eclipse yazılım geliştirme ortamına eklenti (plug in) olarak ontoloji tabanlı kaynak kod sorgulama aracı geliştirilmiştir. Araç gerçekleştiriminde bilgi tabanı olarak OWL-DL (Web Ontology Language ? Description Logics) ile gösterilmiş ontoloji, sorgulama dili olarak SPARQL (SPARQL Protocol and RDF Query Language), anlamsal çıkarsayıcı olarak ta çıkarım motoru kullanılmıştır.Araç geliştirme süresince; ilk olarak, Java ile hazırlanmış kaynak kodları için bir ontoloji oluşturulmuş, sonra ilgilenilen Java projesi için otomatik olarak ontoloji olgularını oluşturabilen bir ayrıştırıcı geliştirilmiştir. Son olarak, kullanıcının projeyi sorgulayabilmesi için geliştirme ortamına bir sorgu görünümü ve bu sorgularınişletilmesi sonucunda elde edilen sonuçların gösterildiği bir sonuç görünümü tasarlanmıştır. Geliştirilen araç ile etkin bir biçimde kod sorgulamanın yapılabildiği ve istenilen düzeyde sonuçların elde edilebildiği gözlenmiştir.
(2009) AHMET SELMAN BOZKIR (MS)
OLAP ve veri madenciliği teknolojilerinden yararlanılarak web tabanlı bir karar destek sisteminin gerçekleştirilmesi
Danışman: DOÇ. DR. EBRU SEZER
[Özet]
Kurumlar geçmişe göre bugün çok daha fazla veriyi bünyelerinde toplamaktadır. Bu durum, verilerin çözümlenmesini ve veriden anlamlı bilgilerin çıkarılması gereksinimini beraberinde getirmiştir. Bu nedenle karar destek sistemlerine olan ilgi ve gereksinimin gün geçtikçe arttığı düşünülmektedir.Büyük veri yığınları arasındaki gizli ilişki ve örüntülerin ortaya çıkarılması olarak adlandırılan veri madenciliği yöntembilimi, karar destek sistemleri açısından büyük bir öneme sahiptir. MIT tarafından geleceği değiştirecek on teknolojiden biri olarak tanımlanan edilen veri madenciliği, karar destek sistemleri içerisinde her geçen gün daha çok kullanılmaktadır.İş dünyası açısından bakıldığında geniş bir coğrafya üzerinde yer alan kurumların karar verme süreçlerinde de günümüzün en önemli iletişim aracı olan internetin sıkça kullanıldığı görülmektedir. Bu çalışmada, veri madenciliği yöntembilimini esas alan web tabanlı çevrimiçi bir karar destek ve raporlama aracı geliştirilmiştir. Geliştirilen araç ile kullanıcılara web ortamında karar ağaçları, kümeleme ve birliktelik kuralları şeklinde üç adet veri madenciliği yöntemi üzerinde çözümleme, sorgulayabilme ve sonuç raporlayabilme imkânı sunulmaktadır.
(2009) AYDIN KAYA (MS)
Lazer göz cerrahisi için bir örüntü takip ve çakıştırma yöntemi geliştirilmesi
Danışman: YRD. DOÇ. DR. AHMET BURAK CAN
[Özet]
Göz takipçilerinden, lazer göz cerrahisi, tıp ve insan-bilgisayar etkileşimi başta olmak üzere; psikoloji, sinirbilim, savunma sanayi, vb birçok alanda faydalanılmaktadır. Lazer göz cerrahisinde, işlemin doğru olarak gerçekleştirimi, tutarlı göz takip ve çakıştırma yöntemlerine bağlıdır.Lazer göz cerrahisinde fotoelektrik, lazer ya da görüntü işleme tabanlı takipçiler kullanılmaktadır. Görüntü işleme tabanlı göz takipçilerinde genel olarak kullanılan yaklaşım, gözbebeği ve iris çevresi (limbus) bölgesinin çıkarılması ve takip edilmesidir. Göz çakıştırma işlemlerinde ise; uygulamanın hassasiyetinden dolayı görüntü işleme yöntemleri temel alınmaktadır. Bu işlemlerde genelde, kızılötesi kamera ile elde edilen görüntülerden, iris bölgesindeki nitelikleri kullanarak uygulama yapılmaktadır.Tez kapsamında, göze uygulanacak örüntünün takibi ve çakıştırılması için kullanılabilecek iki yöntem geliştirilmiştir. Bu çalışmalarda, diğer yöntemlerden farklı olarak, göz akı damarlarından elde edilen nitelikler kullanılmıştır. Ameliyat esnasında, iris bölgesinde değişiklik olmasına rağmen, göz akı damarlarının yapılarında değişiklik olmamaktadır. Bu bölgenin dokululuk oranı fazla olduğundan iyi bir nitelik bölgesi olarak kullanılabilmekte; göz bebeği merkez kayması gibi sorunlardan etkilenmemektedir.Geliştirdiğimiz yöntemler, lazer göz cerrahisi temel alınarak geliştirildiyse de, insan-bilgisayar etkileşimi gibi alanlarda da kullanılabilir. Ayrıca, göz akı damarlarından, biyometrik ölçümde nitelik alanı olarak faydalanılabilir.
(2009) ALİ SEYDİ KEÇELİ (MS)
Beyindeki beyaz cevher lezyonlarının otomatik belirlenmesi için bir yazılımın tasarım ve gerçekleştirimi
Danışman: YRD. DOÇ. DR. AHMET BURAK CAN
[Özet]
MR (magnetic resonance) görüntüleri, başta MS (Multiple Sclerosis) ve kanser olmak üzere geniş bir hastalık grubunun tanısında kullanılmaktadır. MR görüntüleri üzerinde insan gözüyle yapılan analizlerde, gözlemciler arasında oluşabilecek tutarsızlıkları, gerekli insan gücünü ve analiz süresini azaltmak için sayısal yöntemlere ihtiyaç duyulmaktadır. Hasta sayısındaki hızlı artış ve görüntü analizi için yeterli insan gücünün bulunamaması da bu tür sistemlere olan ihtiyacı arttırmaktadır. Bu nedenlerden dolayı tıbbi görüntülerin analizinde, görüntü işleme tekniklerinin kullanımına olan ilgi ve gereksinim giderek artmaktadır.Bu tez kapsamında, beyinde oluşan beyaz cevher lezyonlarının otomatik tespiti için geliştirilen bir yazılım anlatılmaktadır. Beyinlerinde lezyon bulunan hastalara ait MR görüntüleri üzerinde görüntü işleme teknikleri kullanılarak lezyonlu bölgeler gözetimsiz (unsupervised) olarak tespit edilmeye çalışılmıştır. Bu işlem gerçekleştirilirken ilk olarak, kafatası beyin dokusundan ayrılmıştır. Kafatasını beyin dokusundan ayırmada dört farklı yöntem çalışılmıştır. Daha sonra görüntüde yer alan pikseller kümelenmiş ve alan büyütme yöntemiyle lezyonlu bölgeyi belirleyen maske elde edilmiştir. Geliştirilen yazılım aynı zamanda, lezyon hacmini hesaplama ve beyni üç boyutlu görüntüleme imkânı sunmaktadır. Ayrıca tez kapsamında GPU üzerinde koşut görüntü işlemeyle hız başarım artırımı sağlanmıştır.
(2009) SEMA GAZEL (MS)
?CMMI-DEV? için bir ontoloji ve CMMI esaslı süreç değerlendirmenin ontoloji tabanlı bir araç ile desteklenmesi
Danışman: DOÇ. DR. EBRU SEZER
[Özet]
Bir yazılım ürününün geliştirilmesinde ve idamesinde kullanılan süreçlerin, bu yazılımın kalitesini büyük oranda etkilediği görüşü genelde kabul görmüş ve bu noktadan hareketle, yazılım geliştirme süreçlerinin iyileştirilmesi ve değerlendirilmesi ile ilgili referans modeller ve standartlar ortaya konulmuştur. Bir kurumun süreçleri, bu kurumun önemli varlıklarından ve bilgi birikimlerindendir. Bunların, referans modeller ve standartlar ile uyumluluğunun izlenmesi, değerlendirilmesi gibi etkinlikler de önemlidir. Süreç odaklı yönetimi benimseyen ve süreçlerini iyileştiren kurumların, bu gibi süreç etkinliklerini desteklemek amacıyla araçlar kullanmasının neredeyse bir zorunluluk olduğu söylenebilir. Bu ihtiyacı karşılamak adına tez kapsamında, CMMI-Dev için bir ontoloji geliştirilmiş ve bu ontolojiyi de kullanan ontoloji-tabanlı bir araç, mevcut bir süreç yönetimi aracı olan EPF aracına ek yetenekler kazandırılarak oluşturulmuştur. OCMQ-E (Ontology-based CMMI Mapping and Querying - EPF) olarak isimlendirilen bu yeni araç ile kurum süreçleri ve CMMI arasındaki uyumluluğunun izlenmesi ve süreç değerlendirme faaliyetinin veri toplama aşamasının desteklenmesi hedeflenmiştir. Bu hedefe ulaşmak için, kurum süreçlerinin ontolojilerinin oluşturulması, süreç ontolojileri ile CMMI ontolojisi arasında eşlemelerin yapılması ve bu eşleme bilgisinin ontoloji biçiminde saklanması sağlanmıştır. Böylece; CMMI alan bilgisi, süreç bilgisi ve CMMI-süreç eşlemeleri ile ilgili bilginin, ontoloji sorguları ile sorgulanabilmesine olanak verilmiştir.
Hacettepe Üniversitesi Bilgisayar Mühendisliği Bölümü
06800 Beytepe Ankara