<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Knime Server &#8211; CALIGO</title>
	<atom:link href="https://www.caligo.com.tr/tag/knime-server/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.caligo.com.tr</link>
	<description></description>
	<lastBuildDate>Thu, 04 Feb 2021 07:50:28 +0000</lastBuildDate>
	<language>en-US</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.1.10</generator>

<image>
	<url>https://www.caligo.com.tr/wp-content/uploads/2020/09/ico-32x35-1.png</url>
	<title>Knime Server &#8211; CALIGO</title>
	<link>https://www.caligo.com.tr</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Neden KNIME Server&#8217;a ihtiyaç duyuyoruz ?</title>
		<link>https://www.caligo.com.tr/neden-knime-servera-ihtiyac-duyuyoruz/</link>
		
		<dc:creator><![CDATA[Volkan Çamaş]]></dc:creator>
		<pubDate>Thu, 10 Dec 2020 12:13:18 +0000</pubDate>
				<category><![CDATA[Advanced Analytics]]></category>
		<category><![CDATA[Knime]]></category>
		<category><![CDATA[Knime Certification]]></category>
		<category><![CDATA[Knime Server]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<guid isPermaLink="false">https://caligo.caligo.com.tr/?p=2713</guid>

					<description><![CDATA[Daha önceki yazılarımda KNIME ile ilgili ürünün kullanım alanları ve sertifikasyon sürecinden bahsetmiştim. Çalıştığımız kurumsal firmalarda ne zaman bir ürün kullanımı gündeme gelse ücretsiz bile olsa öncelikle governance, güvenlik,performans ve yetkilendirme konuları ön plana çıkmaktadır. Bu kadar kapsamlı ve çeşitli entegrasyonlar sağlayabildiğiniz bir ürün olunca da haliyle sadece desktop bir uygulama ile bu süreçleri yönetmek [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Daha önceki yazılarımda KNIME ile ilgili ürünün kullanım alanları ve sertifikasyon sürecinden bahsetmiştim. Çalıştığımız kurumsal firmalarda ne zaman bir ürün kullanımı gündeme gelse ücretsiz bile olsa öncelikle governance, güvenlik,performans ve yetkilendirme konuları ön plana çıkmaktadır. Bu kadar kapsamlı ve çeşitli entegrasyonlar sağlayabildiğiniz bir ürün olunca da haliyle sadece desktop bir uygulama ile bu süreçleri yönetmek mümkün mü detaylarıyla incelemek istedim.</p>
<p><strong>KNIME Analytics Platform</strong>, ücretsiz olarak indirilebilen bir desktop uygulamasıdır. Veri bilimi başlığı altında yer alan veri hazırlama, modelleme ve görselleştirme süreçlerini akış olarak tasarlayabileceğiniz bir platformdur.</p>
<p><strong>KNIME Server, </strong>tasarlanan akışların ortak bir sunucuya taşınması ile birlikte yönetimi,izlenmesi ve başka uygulamalardan verinin sorgulanmasını amaçlamaktadır.</p>
<p>Genelde bu tip yazılım ürünlerinde bazı özelliklerin kısıtlı olduğunu görürüz ve kurumsal bir uygulamada kullanma ihtiyacınız olduğunda en gerekli özellikleri kullanılamadığından sizi yatırım yapmaya mecbur bırakır. Ancak <strong>KNIME Analytics Platform</strong> kullanırken böyle bir deneyim yaşamıyorsunuz, tüm özellikler açık ve herhangi bir son kullanım tarihi bulunmuyor. KNIME gelir modelini sadece eğitim, danışmanlık ve <strong>KNIME Serve</strong>r lisanslaması olarak konumlandırmış.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQGK8Am-OyIfcw/article-inline_image-shrink_1000_1488/0/1607199683617?e=1614211200&amp;v=beta&amp;t=t_awHOJaAvZQ4j1ObbEQeB1L_SZW6HXAE40AicQbGPM" alt="No alt text provided for this image" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQGK8Am-OyIfcw/article-inline_image-shrink_1000_1488/0/1607199683617?e=1614211200&amp;v=beta&amp;t=t_awHOJaAvZQ4j1ObbEQeB1L_SZW6HXAE40AicQbGPM" /></div>
<p>Aşağıdaki maddelerde de neden Analytics Platform kullanırken neden Server yatırımı yapmak gerektiği konusunda detaylı yorumlarıma yer verdim.</p>
<p><strong>1- Takım Çalışması</strong></p>
<p>KNIME Server ile birlikte hayatımızda değişen ilk şey takım çalışması/iş birliği olarak belirtiliyor. Server ile birlikte aslında klasik kurumsal uygulamalardaki paylaşım süreçleri hizmet olarak sunuluyor. Yani burada birim veya proje bazlı oluşturduğunuz akışlarınız artık kişisel bilgisayarlarınız yerine bir sunucuda tutulur hale gelmiş oluyor. (Yazılımcılar için TFS, iş birimleri içinse network sharing folder gibi düşünebiliriz.) Bu sayede kurumunuzdaki işler birimler arası paylaşıma mümkün hale gelmiş oluyor. Ayrıca bir sunucu üzerinde süreçleri yönetmenin yedekleme ve versiyonlama açısından da daha sağlıklı olacağı unutulmamalıdır.</p>
<p><strong>2- Otomatizasyon</strong></p>
<p>Veri hazırlığı ve raporlama süreçlerinde otomatikleştirme(scheduling) konusu olmazsa olmaz diyebiliriz. KNIME kullanıyorsanız ve tasarlamış olduğunuz akışınızın belirli periyotlarda çalışmasını bekliyorsanız bunun farklı opsiyonları olsa da ben en yaygın 2 yöntemi paylaşacağım.</p>
<p>Birincisi, KNIME web sitesindeki <a href="https://www.knime.com/faq#q12" target="_blank" rel="nofollow noopener">sıkça sorulan sorular</a> ve <a href="https://stackoverflow.com/questions/55101024/knime-windows-scheduler-task-without-server" target="_blank" rel="nofollow noopener">stackoverflow </a>aramalarında denk geldiğim bir yöntem. Windows task scheduler kullanarak tasarlamış olduğunuz akışınızı tanımlı bir zamanda tekrar tekrar çalıştırabilirsiniz. Bu yöntemi ücretsiz ve herhangi bir sunucuya ihtiyaç duymadan uygulayabilirsiniz. Burada sadece her gün çalışsın gibi bir beklentiniz var ise kendi bilgisayarınızın da o saatler çalıştığından emin olmalısınız !</p>
<pre spellcheck="false">knime.exe -consoleLog -noexit -nosplash -application org.knime.product.KNIME_BATCH_APPLICATION -workflowDir="workspace/Knime_project"
</pre>
<p>İkinci yöntem ise KNIME server satın aldığınızda web portal aracılığı ile sunucuya yüklediğiniz akışlarınızı akış adı ve periyot tanımlayarak hızlı ve kolay olarak uygulayabilirsiniz.</p>
<p>İlk yöntem biraz daha araştırma veya eğitim amaçlı daha bireysel bir kullanım için konumlandırılabilir. Biraz daha merkezi bir uygulama ve kompleks yapılar kurgulamaya ihtiyaç duyduğunuzda ise yönetim anlamındaki ihtiyaçlar ve operasyonel risklerin azaltılması için önerilen yöntem KNIME server üzerinde bu süreci yönetmek olacaktır.</p>
<p><strong>3- Görselleştirme</strong></p>
<p>Veri ile ilgili yapılan her projede günün sonunda görsel çıktılara ulaşmak yapılan işin okunurluğunu ve izlenmesini sağlamaktadır. Benim kişisel olarak beklentim klasik grafikleri çizsin yeterken, inceledikçe aslında iyi seviyede çıktılara kolayca ulaşmanın mümkün olduğunu gördüm. Ayrıca kod seviyesinde de size Javascript ve CSS olarak müdahale ettirdiğinden dolayı yapacağınız işin sınırı size kalmış denebilir.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQEQApCzR1xbLA/article-inline_image-shrink_1000_1488/0/1605545946209?e=1614211200&amp;v=beta&amp;t=1piP5qYoQSa287YnLEnS-dYuBtdw6man3xT-SFOCbIs" alt="No alt text provided for this image" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQEQApCzR1xbLA/article-inline_image-shrink_1000_1488/0/1605545946209?e=1614211200&amp;v=beta&amp;t=1piP5qYoQSa287YnLEnS-dYuBtdw6man3xT-SFOCbIs" /></div>
<p>Server olmadan da yukarıdaki çıktılara benzer grafikleri kendi bilgisayarınızda oluşturabilirsiniz. Ancak paylaşım konusunda herkes günlük/haftalık periyotlarla yenilen grafiklere bir portalden erişsin beklentiniz olursa sunucuya ihtiyaç duyacaksınız. Diğer türlü bu çıktıları alıp e-posta yoluyla göndermek de bir tercih olabilir.</p>
<p><strong>4- Performans</strong></p>
<p>Performans, neden bir server yatırımı yapalım konusunda bence en güçlü nedenlerden biri. Verilerinizi kurumunuzun veritabanlarından erişerek aldınız ancak analitik ihtiyaçlarınıza özel Knime komponentleri kullanma ihtiyacınız var. Verilerinizin boyutları da milyonlar seviyesine ulaşıyorsa burada kendi bilgisayarınıza büyük iş düşüyor, çoğu zamanda memory hataları almanıza neden olacaktır. Yani özetle hem kompleks hesaplamalar yapacağım hem de kullanmış olduğunuz veri seti kişisel bir bilgisayarda işlemek için çok büyük boyutlarda diyorsanız, server yatırımı yapmanız performans gibi bir kaygıdan sizi kurtaracaktır. Hele ki hızlı cevap almak istediğiniz ve anlık çalışsın diye düşündüğünüz ihtiyaçlarınız için konumlandırmak istiyorsanız, sunucu olmazsa olmaz diyebilirim. (Örn: Fraud Detection, Recommendation Engine vb.)</p>
<p><strong>5- Entegrasyon</strong></p>
<p>Sunucu yatırımı yapmak için en önemli nedenlerden biri de entegrasyon diyebiliriz. KNIME Server&#8217;a yüklediğiniz akışlarınıza artık REST API ile erişebilir hale geliyorsunuz. Bu özellik size farklı uygulamalar ile entegrasyon kurabilmenizi ve tasarladığınız süreçleri dış dünyaya açabilmenizi sağlıyor. Yukarıda örnek verdiğim Fraud Detection için bir model kurdunuz ve bunu transaction anında uygulamanızda kullanmak istiyorsunuz. Transaction anında ilgili Knime akışını tetikleyip işlemin fraud olup olmadığı bilgisini model sonucunuza göre sorgulama yapabilirsiniz.</p>
<p>Ayrıca sunucudaki bir çok farklı konuda da dışarıdan API ile erişim sağlayarak çözüm bulabilirsiniz. Örnek olarak</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQEoyomF32yoyA/article-inline_image-shrink_1500_2232/0/1606038742505?e=1614211200&amp;v=beta&amp;t=wRGBUKEL4gorazs4O5PGw6dXZNSYJQcwK-DjxrEv9W4" alt="No alt text provided for this image" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQEoyomF32yoyA/article-inline_image-shrink_1500_2232/0/1606038742505?e=1614211200&amp;v=beta&amp;t=wRGBUKEL4gorazs4O5PGw6dXZNSYJQcwK-DjxrEv9W4" /></div>
<p><strong>6- İzleme ve Yönetim</strong></p>
<p>Ürün üzerinde farklı süreçler tasarlayıp genel kullanıma yaygınlaştırılmak istendiğinde hem izleme hem yönetim iki önemli madde diyebiliriz. İzleme altında sunucuda çalışan işlerin durumunu, sunucunun sağlığını izlenmesi gibi konular önem arz etmeye başlıyor. Yönetim başlığı altında ise ilk olarak yetkilendirme konusu hayatımıza giriyor. Çalışan işleri kimler tasarlayabilir,görebilir ya da çalıştırabilir yetkilerinin düzenlenmesi, farklı ekipler arasındaki ortak süreçlerin tasarlanması gibi ihtiyaçlar da yetkilendirme yetenekleri ile süreçlerinizi yönetebilirsiniz.</p>
<p>Bir sunucu kurulumu yaptığınızda da KNIME tarafından hazırlanmış Admin akışları default tanımlı olarak sunucuda yer almaktadır.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQGx_pXZYRJe2g/article-inline_image-shrink_1000_1488/0/1606038393941?e=1614211200&amp;v=beta&amp;t=Azac0-MYsUch53V5v5P5WL7CLrNZFNNwCUr96ra52qo" alt="No alt text provided for this image" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQGx_pXZYRJe2g/article-inline_image-shrink_1000_1488/0/1606038393941?e=1614211200&amp;v=beta&amp;t=Azac0-MYsUch53V5v5P5WL7CLrNZFNNwCUr96ra52qo" /></div>
<p><strong>7- Metadata Analizi</strong></p>
<p>Genelde bu tip ürünlerde kullanıcıların yaptıkları çalışmalar repository veritabanlarında tutulmaktadır. KNIME alışılanın aksine hazırladığınız her akış için bir knwf adında bir dosyada oluşturmaktadır ve herhangi bir databasede çalışamlarınızın detaylarını kaydetmemektedir. Bu dosyalar yine bir akış içerisinde XML formatına çevrilerek, workflowlar içerisinde kullanılan database objeleri nelerdir, hangi nodelar kullanılmış, çıktı olarak sonuçlar nelerdir gibi analizler çıkarmak mümkün hale gelmektedir. Ancak herkesin kişisel bilgisayarında Analytics Platform kullandığı bir senaryo düşünürsek böyle bir analizi yapmak mümkün olamayacaktı. Bu konuyla ilgili araştırma yaparken KNIME Hub&#8217;da denk geldiğim iki örneğe de aşağıda yer vermek istedim.</p>
<h3><a href="https://hub.knime.com/temesgen-dadi/spaces/Public/latest/01_Data_Lineage_via_KNIME_WebPortal" target="_blank" rel="nofollow noopener"><strong>Data Lineage via KNIME WebPortal</strong></a></h3>
<h3><a href="https://hub.knime.com/navinjadhav/spaces/Public/latest/Collect_and_display_Workflow_Summaries_using_KNIME_Server" target="_blank" rel="nofollow noopener"><strong>Collect Workflow Information from KNIME Server REST API</strong></a></h3>
<p><strong>Özet</strong></p>
<p>Aslında yukarıda saydığım maddeler &#8220;enterprise&#8221; ihtiyaçlar ortaya çıktığında akla ilk gelen konular diyebiliriz. Burada ürünün öne çıkan özelliği, herhangi bir satın alma yapmadan ürünün ihtiyaçlarınıza cevap verip veremeyeceğini test edebileceğiniz bir ortam sağlamasıdır. Kendi deneyimlerim ve araştırmalarım sonucunda, desktop uygulaması olan Analytics Platform bireysel olarak inceleme ve analizleriniz için yeterli olacaktır ama daha yaygın bir kullanım planlıyorsanız KNIME Server almak en akılcı karar olacaktır.</p>
<p>KNIME üzerinde farklı denemeler yapmaya devam ediyorum, merak edenler olursa seve seve destek olabilirim. Ayrıca <a href="https://forum.knime.com/" target="_blank" rel="nofollow noopener">KNIME Forum</a>&#8216;a da yazarsanız büyük ihtimalle aynı gün probleminize ya da sorunuza cevap alabilirsiniz. Geçen haftalarda yapılan &#8220;Fall Summit 2020&#8221; de Level-2 sertifikasını da almaya hak kazandım. Sınav ile ilgili değerlendirmelerimi de ayrıca yazmayı planlıyorum.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Good at Theory? We are The King of the Jungle</title>
		<link>https://www.caligo.com.tr/good-at-theory-we-are-the-king-of-the-jungle/</link>
		
		<dc:creator><![CDATA[Kerem Kabil]]></dc:creator>
		<pubDate>Thu, 03 Dec 2020 13:05:12 +0000</pubDate>
				<category><![CDATA[Advanced Analytics]]></category>
		<category><![CDATA[Knime]]></category>
		<category><![CDATA[Knime Server]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<guid isPermaLink="false">https://caligo.caligo.com.tr/?p=2737</guid>

					<description><![CDATA[In my first post about KNIME, &#8220;How to Set Up an Oracle Connection&#8221; , I mentioned that the connection between KNIME and an Oracle Database. Now, we will take a glance at a simple classification workflow in KNIME. Firstly, I would like to briefly talk about one of the advantages of KNIME provides. Whatever analytical tool we [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>In my first post about KNIME, <em>&#8220;How to Set Up an Oracle Connection&#8221; , </em>I mentioned that the connection between KNIME and an Oracle Database. Now, we will take a glance at a simple classification workflow in KNIME.</p>
<p>Firstly, I would like to briefly talk about one of the advantages of KNIME provides.</p>
<p>Whatever analytical tool we use like Python, R, SQL etc., we need to use some coding things to carry out below general analytics steps. That means, no matter how good our theoretical knowledge is, it is quite difficult to do anything without coding skills. <strong><u>I have no intention to denigrate coding, on the contrary it is a crucial thing in data world and undoubtedly it will be</u>.</strong> What I want to say is that coding can sometimes be an obstacle to one with high theoretical knowledge. In KNIME, our dependency on coding is <u>reduced</u>. That&#8217; s the correct sentence. Generally, we can build analytical processes without any coding thing. That means, if we have a good theoretical knowledge about analytics, we are the king of the jungle!</p>
<p>Let&#8217; s see the simple workflow shown below to prove that dependency on coding is reduced.</p>
<p>Before building a such workflow, we need to take a look at the following generalized steps,</p>
<ul>
<li>Data Collecting and Understanding</li>
<li>Data Preprocessing</li>
<li>Modelling</li>
<li>Evaluating the Model</li>
</ul>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C5612AQH97FYwTdXYzQ/article-inline_image-shrink_1500_2232/0/1606840867820?e=1614211200&amp;v=beta&amp;t=S6JlAodfyXY9NxsHsAEqxq9njK2WywQ08pqAtN18_oY" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C5612AQH97FYwTdXYzQ/article-inline_image-shrink_1500_2232/0/1606840867820?e=1614211200&amp;v=beta&amp;t=S6JlAodfyXY9NxsHsAEqxq9njK2WywQ08pqAtN18_oY" /></div>
<p>As we see above, we can easily built a classification model. KNIME can perform all processes with its nodes, all we need to do configuring the nodes. It will be quite easy, if we have a good theoretical knowledge.</p>
<p>Let&#8217; s take a closer look at these four generalized analtyics steps in KNIME.</p>
<ul>
<li><strong>Data Collecting and Understanding</strong></li>
</ul>
<p>Each analytics process starts collecting data. Our data can be stored in different sources like database, .csv, .xls, .xml etc. To handle this, KNIME has a corresponding node for each data source to collect data. Some of these nodes are Oracle/ MySQL/ Postgre Connector, CSV Reader, Excel Reader, XML Reader respectively. As each node has its own configuration node, we can easily collect data by using this specialized configurations.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-middle"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C5612AQFoPEK7--RvKw/article-inline_image-shrink_1000_1488/0/1606840910356?e=1614211200&amp;v=beta&amp;t=Tlb2VKXyMcSCLsWJUXAl4JuVvceapnCfgYEbfJbp30Y" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C5612AQFoPEK7--RvKw/article-inline_image-shrink_1000_1488/0/1606840910356?e=1614211200&amp;v=beta&amp;t=Tlb2VKXyMcSCLsWJUXAl4JuVvceapnCfgYEbfJbp30Y" /></div>
<p>The image shown above shows our data collecting and understanding part for our sample. As our data is stored in an oracle database, we&#8217; ve used Oracle Connector node to connect the data source. DB Query Reader has been used for retrieving data with a SQL query.</p>
<p>For data understanding, we&#8217; ve used Data Explorer node. With this node, we can take a rapid glance at our data i.e we can see the types of attributes, how many missing values the data contains and distribution of each attributes etc.</p>
<ul>
<li><strong>Data Preprocessing</strong></li>
</ul>
<p>In our sample workflow, we don&#8217;t need to perform various preprocessing steps. For this data, all we need to do converting double typed attributes into integer and filling missing values. So, we&#8217; ve used Double to Int and Missing Value nodes. Then, we&#8217; ve used Partitioning node to perform splitting data into train and test set.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-middle"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQGIGCE_niC6fA/article-inline_image-shrink_1000_1488/0/1606800547457?e=1614211200&amp;v=beta&amp;t=eo_fZ21rM5fLYGbGgYlNLTPlyyCV86TmZ1uXv5yyDos" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQGIGCE_niC6fA/article-inline_image-shrink_1000_1488/0/1606800547457?e=1614211200&amp;v=beta&amp;t=eo_fZ21rM5fLYGbGgYlNLTPlyyCV86TmZ1uXv5yyDos" /></div>
<p>KNIME has various nodes for preprocessing like One To Many, String Manipulation, String to Number, Groupby etc. There are almost every node that may be needed for preprocessing. In parallel, KNIME has also another node for partitioning called X-Partitioner comes with X-Aggregator.</p>
<ul>
<li><strong>Modelling</strong></li>
</ul>
<p>In KNIME, all algorithms represents different nodes like any other operations. For algorithms under the predictive analytics (Logistic Regression, SVM, &#8230;) roof represents two nodes, Learner and Predictor. We train our model with Learner node. Then, we test our model with Predictor node by using train data comes from output of Partitioning node.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-middle"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQHGrS6Ao7YGXg/article-inline_image-shrink_1000_1488/0/1606800581263?e=1614211200&amp;v=beta&amp;t=c61VLmJ99bU1RWjSG2ogoS8QfkXPlryAgTloSF-wKkw" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQHGrS6Ao7YGXg/article-inline_image-shrink_1000_1488/0/1606800581263?e=1614211200&amp;v=beta&amp;t=c61VLmJ99bU1RWjSG2ogoS8QfkXPlryAgTloSF-wKkw" /></div>
<p>In our sample workflow, we&#8217; ve used simple Decision Tree algorithms, and one can see this predictive algorithm represents with two different nodes shown above.</p>
<ul>
<li><strong>Evaluating the Model</strong></li>
</ul>
<p>At the end, builded model needs to be evaluated. To evaluate a model, Scorer nodes can be used. With this node, we can evaluate basic performance metrics (accuracy, recall, precision, Cohen&#8217; s Kappa) of the corresponding model. Scorer node has two different types, Scorer and Scorer (JavaScript). While Scorer (JavaScript) offers an interactive output, Scorer offers simpler output, that&#8217; s the difference between these two nodes.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-middle"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQEr-tRqGSwyiQ/article-inline_image-shrink_1000_1488/0/1606800599537?e=1614211200&amp;v=beta&amp;t=h8iQEcJOUEyv6XU2f6icu87Ncx3BmOXGI9nkpcmnmMc" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQEr-tRqGSwyiQ/article-inline_image-shrink_1000_1488/0/1606800599537?e=1614211200&amp;v=beta&amp;t=h8iQEcJOUEyv6XU2f6icu87Ncx3BmOXGI9nkpcmnmMc" /></div>
<p>One thing about Scorer nodes, these nodes can perform on a model with <u>categorical target</u>. If we have a model with numerical target like Regression, we need to use Numeric Scorer node.</p>
<p>So far, thanks to the advantages of KNIME provides, we&#8217; ve seen that we can easily built an analytical model without any coding. Althought we are not dependent on coding here, sometimes it is necessary to use it. In case we need to use it, KNIME also handles this quite easily 🙂</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>KNIME ile &#8220;Citizen Data Scientist&#8221;​ Yaklaşımına İlk Adım</title>
		<link>https://www.caligo.com.tr/knime-ile-citizen-data-scientist%e2%80%8b-yaklasimina-ilk-adim/</link>
		
		<dc:creator><![CDATA[Deniz Konak]]></dc:creator>
		<pubDate>Mon, 02 Nov 2020 12:56:55 +0000</pubDate>
				<category><![CDATA[Genel]]></category>
		<category><![CDATA[Advanced Analytics]]></category>
		<category><![CDATA[Citizen Data Scientist]]></category>
		<category><![CDATA[Data Science]]></category>
		<category><![CDATA[Knime]]></category>
		<category><![CDATA[Knime Server]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<guid isPermaLink="false">https://caligo.caligo.com.tr/?p=2730</guid>

					<description><![CDATA[ Artificial Intelligence (Yapay Zeka), Machine Learning (Makine Öğrenmesi) ve Data Science (Veri Bilimi) başlıkları aslında çok yeni olmasalar da hızla gelişen teknoloji ve buna bağlı olarak artan veri büyüklükleri ile son yılların en trend başlıklarından oldular. Birbirleriyle farklı noktalarda kesişimleri olan bu kavramlar temel olarak Data Science disiplini ile Advanced Analytics çerçevesinde değerlendirilen uygulamalara temel oluşturuyorlar. Uzun yıllardır hem profesyonel hayatta hem de [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><strong><em> Artificial Intelligence (Yapay Zeka),</em></strong> <strong><em>Machine Learning (Makine Öğrenmesi)</em></strong> ve <strong><em>Data Science (Veri Bilimi)</em></strong> başlıkları aslında çok yeni olmasalar da hızla gelişen teknoloji ve buna bağlı olarak artan veri büyüklükleri ile son yılların en trend başlıklarından oldular. Birbirleriyle farklı noktalarda kesişimleri olan bu kavramlar temel olarak <strong><em>Data Science</em></strong> disiplini ile <strong><em>Advanced Analytics</em></strong> çerçevesinde değerlendirilen uygulamalara temel oluşturuyorlar.</p>
<p>Uzun yıllardır hem profesyonel hayatta hem de öncesinde akademik ve öğrencilik hayatında <strong>SAS, MATLAB, Gauss, SPSS, R</strong> ve <strong>Python</strong> gibi kod ve node bazlı farklı programları kullanarak pek çok model geliştirmiş ve bu disiplini içselleştirmiş bir uzman gözünden bir yazı dizisi kaleme almak istedim. Gündeme getirmek istediğim konulardan biri, Data Science denilince akla gelen satırlarca kodlama gereksinimi artık gerçekten zorunlu mu? Yoksa artık kendine <strong>Citizen Data Scientist</strong> yaklaşımını benimsemiş Analitik Platformlar bu dünyada yeni bir akım mı yaratıyorlar?</p>
<p>Bu yazı dizininin ilk bölümünde aktif olarak R ve Python tecrübelerim sonrası, <strong>KNIME Analitik Platformu </strong>ile tanışma sürecimdeki ilk yorumlarımı ve karar noktalarımı paylaşmak istiyorum.</p>
<p>Pek çok farklı analitik programlama dili ve model geliştirme tecrübesi sonrası iş bilgisinin en az teknik/teknolojik bilgi kadar önemli olduğuna inanan biri olarak neden KNIME kullanmalıyım? KNIME öğrenme algoritmalarının uygulanması ve süreçlerin tasarlanması noktalarında nasıl konumlandırılabilir? Bu iki konu KNIME ile çalışmaya daha başlamadan cevaplarını bulmak için kafamda oluşturduğum temel iki soru başlığı idi. Sırasıyla bu başlıklar altını nasıl doldurdum birlikte bakalım.</p>
<p><strong>Neden KNIME kullanılmalı?</strong></p>
<p><strong>Artifical Intelligence /Augmented Intelligence</strong> kavramlarının temel amacı olan <strong>insanın yapabildiği işlerin makineler tarafından yapılabilmesi</strong> yaklaşımı temelde Citizen Data Scientist yaklaşımı ile de örtüşmekte. Ve bu temelde Data Science alanında insan eliyle uzun uzun kodlar yazılması yerine, Citizen Data Scientist prensibini benimsemiş ve hali hazırda var olan node’lar üzerinden çalışan Data Science platformlarının kullanılmaya başlanması aynı düşünceye dayanmakta. Kendisine bu yaklaşımı benimsemiş olan KNIME platformu da Data Science disiplinini içselleştirmek isteyen herkesin öncelikli ihtiyaç olarak gördüğü kod öğrenme fazını atlatarak hızlıca üretmeye başlamasına yardımcı olacak şekilde geliştirilmiş. Uçtan uca tüm Data Science sürecine hizmet eden KNIME hem <strong>Data Engineer</strong>, hem <strong>Data Scientist</strong> hem de <strong>Data Analyst</strong> rollerinin ihtiyaç duyduğu gereksinimlere cevap veren bir platform. Bu sayede IT bağımlılıkları, çok yüksek kodlama maliyetleri ve süreçlerin her aşamasının farklı farklı uygulamalar ve platformlar üzerinde sürdürülmesi nedeniyle oluşan verimsizlik ve zaman kaybı konularını minimum seviyeye indirmek mümkün. KNIME ve benzeri analitik platformlar sayesinde aslında sadece Python ve R gibi kodlama dillerini bilenlerin kendilerine kolaylıkla Data Scientist diyemeyeceği, bu disiplinin en temelinde <strong>istatistik ve matematik</strong> bilgisi ile <strong>derin iş bilgisinin</strong> olduğu gerçeğinin daha iyi anlaşılacağı bir döneme geçiş yapıyoruz.</p>
<p><strong> KNIME nasıl konumlandırılabilir?</strong></p>
<p>Artık bütün şirketleri birer veri ve teknoloji şirketi olarak konumlandırabileceğimiz bir dönemdeyiz. Ve her şirketin öncelikli işlerinden biri elindeki veriyi işlemek ve kullanmak iken bu amaca kolaylık sağlayarak hizmet eden KNIME analitik platformunu, analitik çözümleri içselleştirmek ve kurum içinde yaygınlaştırmak, ve buna hızlıca adım atmak isteyen organizasyonlarda başından sonuna tüm analitik süreçlerin üzerinde ilerleyebileceği temel platform olarak konumlandırarak; veri yönetimi, analitik, risk-pazarlama gibi iş birimleri ve IT ekiplerinin aynı dili konuştuğu bir sinerji yakalamak çok mümkün.</p>
<p>Özetlemek gerekirse; Data Science ve Advanced Analytics disiplinlerine farklı açılardan bakıp, ilgili süreçlerin temellerinden olan iş bilgisi ve teorik birikimin veriyi ve ihtiyacı anlayıp yorumlamak konusunda herhangi bir yazılım dilini çok iyi bilmekten daha önemli olduğuna inanan ve uzun süredir de bunu tecrübe etmiş biri olarak, KNIME Platformunun Data Science ve Advanced Analytics disiplinine bakış açımızı değiştirdiğini ve bu disiplini daha erişilebilir bir noktaya getirdiğini söyleyebilirim. Diğer bir deyişle teorik model geliştirme yapmayan bir kullanıcının ihtiyaç duyduğu model için sıfırdan kodlama yapması ihtiyacı artık ortadan kalkıyor. Ve bu sayede pek çok farklı model üzerinde çalışmak ve optimal modele karar vermek süreci kolaylaşıyor.</p>
<p><strong>Citizen Data Scientist</strong></p>
<p>KNIME ile tanışmamın ve çalışmaya başlamamın benim için en büyük kazanımlarından biri de Citizen Data Scientist kavramını yakından tanımam ve her zaman inandığım teknik geliştirici olmayan kişilerin kodlama gurusu olmasının gerekmediği düşüncesine temel oluşturması oldu. Teknolojinin geldiği noktada bu yaklaşımın benimsenmesi ve yakın-orta vadede ulaşabileceği potansiyeli düşünmek beni gerçekten çok heyecanlandırıyor.</p>
<p>Kendi profesyonel görüşüm doğrultusunda geleceğe yönelik olasılıkları düşünürken sektördeki pek çok üst düzey profesyonelin bakış açısını ve teknolojik gelişmeleri yakından izleyip üzerinde çalıştığımız konuların akıbetlerine yön veren Gartner gibi şirketlerin Citizen Data Scientist kavramı ve buna bağlı disiplinler üzerine güncel araştırmalarını ve ilişkili yazıları incelemek düşüncelerimin önemli dayanak noktasını oluşturuyor.</p>
<p>Benim gibi düşünen ve Citizen Data Scientist kavramını merak eden pek çok kişi olduğuna inanıyorum. Bu nedenle bu yazı dizisinin 2. bölümünde Citizen Data Scientist kavramını etraflıca anlatıp, işimizi kolaylaştıracağı noktalara değineceğim. Sonrasında ise KNIME ile pek çok örnek üzerinden bu kavramın hayatımızı nasıl kolaylaştıracağını paylaşacağım.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>KNIME Analytics: How to Set Up an Oracle Connection</title>
		<link>https://www.caligo.com.tr/knime-analytics-how-to-set-up-an-oracle-connection/</link>
		
		<dc:creator><![CDATA[Kerem Kabil]]></dc:creator>
		<pubDate>Mon, 02 Nov 2020 12:36:53 +0000</pubDate>
				<category><![CDATA[Advanced Analytics]]></category>
		<category><![CDATA[Knime]]></category>
		<category><![CDATA[Knime Server]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<category><![CDATA[Oracle Connection]]></category>
		<category><![CDATA[Oracle Driver]]></category>
		<guid isPermaLink="false">https://caligo.caligo.com.tr/?p=2719</guid>

					<description><![CDATA[KNIME is an end to end data analytical tool. With its nodes, all analytical processes of data can be easily built. Every data project starts with accessing the data. Like any other analytical tools KNIME has several ways of accessing different types of data. Our data may be stored as .csv, .xlsx, .txt etc. or [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>KNIME is an end to end data analytical tool. With its nodes, all analytical processes of data can be easily built.</p>
<p>Every data project starts with accessing the data. Like any other analytical tools KNIME has several ways of accessing different types of data. Our data may be stored as .csv, .xlsx, .txt etc. or in most of real-world cases the data is stored in a database. Here, our main focus is on accessing to data stored in a database.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQERLEpkHmpGTQ/article-inline_image-shrink_1000_1488/0/1604307341581?e=1614211200&amp;v=beta&amp;t=uf_EoHWIeH0VJvu9Q_y2C9Ys3NnlXU6MCaxHKQcTTTM" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQERLEpkHmpGTQ/article-inline_image-shrink_1000_1488/0/1604307341581?e=1614211200&amp;v=beta&amp;t=uf_EoHWIeH0VJvu9Q_y2C9Ys3NnlXU6MCaxHKQcTTTM" /></div>
<p>At the image shown above, we can see different database management system nodes of KNIME. These connector nodes create a connection to corresponding databases. If we want to access to data stored in database, we must implement these nodes into our workflow. However, there is an important configuration difference between the connectors under the green roof and the connector under the orange roof. The difference is MySQL, PostgreSQL and Microsoft SQL Server have defined driver name, but Oracle not.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQHDZxgJOQ6tLw/article-inline_image-shrink_1000_1488/0/1604307370651?e=1614211200&amp;v=beta&amp;t=eZpodE5oM1veQzrMr0NoX3cV-m89uzQ7Erq5lObYUy4" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQHDZxgJOQ6tLw/article-inline_image-shrink_1000_1488/0/1604307370651?e=1614211200&amp;v=beta&amp;t=eZpodE5oM1veQzrMr0NoX3cV-m89uzQ7Erq5lObYUy4" /></div>
<p>We have determined the difference between configuration of Oracle Connector and the others so far.</p>
<p>Now, we can see the configuration windows of KNIME Microsoft SQL Server Connector and Oracle Connector nodes. As we see, there is no defined driver name in Oracle Connector while Microsoft SQL Server has. If we have a look at configuration windows of MySQL Connector and PostgreSQL Connector as well, we will see a defined driver name.</p>
<h2>All good, but what is the driver?</h2>
<p>Driver or JDBC Driver defines and creates a connection between KNIME and corresponding database. So, if we want to create a connection between KNIME and a database, there must be a defined JDBC Driver.</p>
<h2>Why is there no defined JDBC Driver in Oracle Connector Node?</h2>
<p>Oracle JDBC Driver is not a part of the KNIME, because there is a license restriction of Oracle. So, if we need to use Oracle Connector in our workflow, Oracle JDBC Driver needs to be registered manually. For more detailed information:</p>
<p><a href="https://kni.me/n/_fvEBQvrof1kSz-X" target="_blank" rel="nofollow noopener">https://kni.me/n/_fvEBQvrof1kSz-X</a></p>
<h2>How to register Oracle JDBC Driver manually?</h2>
<p>Firstly, we need to download Oracle JDBC Driver related to our database via <a href="https://www.oracle.com/database/technologies/appdev/jdbc-downloads.html" target="_blank" rel="nofollow noopener">https://www.oracle.com/database/technologies/appdev/jdbc-downloads.html</a>. Which database release (11g, 12c, &#8230;) is installed in your system, we need to download Oracle JDBC Driver related to your own installed database. Having downloaded the Oracle JDBC Driver, we need to register that driver manually. To do that, please follow the following path:</p>
<p><strong>File -&gt; Preferences -&gt; KNIME -&gt; Databases</strong></p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQE9NODP59vgag/article-inline_image-shrink_1000_1488/0/1604307509307?e=1614211200&amp;v=beta&amp;t=v_MThC5bHkt18nR3XLNUcE_OY6PtVRcSu4fYIV04ry0" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQE9NODP59vgag/article-inline_image-shrink_1000_1488/0/1604307509307?e=1614211200&amp;v=beta&amp;t=v_MThC5bHkt18nR3XLNUcE_OY6PtVRcSu4fYIV04ry0" /></div>
<p>Now, click <strong>Add</strong> to register Oracle JDBC Driver manually.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQGoBfkxLB1owQ/article-inline_image-shrink_1000_1488/0/1604307535256?e=1614211200&amp;v=beta&amp;t=EEbyGSydqB522Zhw-VtglE_y6mztpjLSah3kybYIevI" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQGoBfkxLB1owQ/article-inline_image-shrink_1000_1488/0/1604307535256?e=1614211200&amp;v=beta&amp;t=EEbyGSydqB522Zhw-VtglE_y6mztpjLSah3kybYIevI" /></div>
<p>Fill the <strong>ID</strong> and <strong>Name</strong> with Oracle, and select the Database Type with oracle. Having configured these parts, please click <strong>Add File </strong>to show Oracle JDBC file where located in your system. Then, click <strong>Find driver classes </strong>and KNIME find our driver class and version. Click <strong>OK </strong>and <strong>Apply and Close </strong>to quit.</p>
<p>Good, we have registered Oracle JDBC Driver manually. Let’s take a glance at Oracle Connector node again.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQF-R0znSOZomg/article-inline_image-shrink_1000_1488/0/1604307566140?e=1614211200&amp;v=beta&amp;t=zxRcGh_Gz-dxktF_HFNhx6T27LowXs1-USV9j62Bbug" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQF-R0znSOZomg/article-inline_image-shrink_1000_1488/0/1604307566140?e=1614211200&amp;v=beta&amp;t=zxRcGh_Gz-dxktF_HFNhx6T27LowXs1-USV9j62Bbug" /></div>
<p>Perfect! Our Oracle Connector node has a Driver Name now.</p>
<p>To connect our database, we need to fill <strong>Hostname</strong>, <strong>Port</strong>, <strong>Database</strong> <strong>name</strong> and</p>
<p><strong>Authentication</strong> with our database information and our credentials.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQHcYOvUJ8Rzsg/article-inline_image-shrink_1000_1488/0/1604307610547?e=1614211200&amp;v=beta&amp;t=RHpvk_HOpWPmDrwSc7yjW0n6cMTk4zMp2VxDDwSFT0E" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQHcYOvUJ8Rzsg/article-inline_image-shrink_1000_1488/0/1604307610547?e=1614211200&amp;v=beta&amp;t=RHpvk_HOpWPmDrwSc7yjW0n6cMTk4zMp2VxDDwSFT0E" /></div>
<p>Having configured database information and authentication credentials correctly, please click <strong>Apply </strong>and see the traffic lights turn green. This means that we have now connected our database!</p>
<p>Let&#8217;s read a dummy table from our database.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQH3xVPWXrH2fw/article-inline_image-shrink_1000_1488/0/1604307651221?e=1614211200&amp;v=beta&amp;t=ivIziIQbt1lmrLdd2HjyfxGAYyBO4pul66hdzHLj0_Q" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQH3xVPWXrH2fw/article-inline_image-shrink_1000_1488/0/1604307651221?e=1614211200&amp;v=beta&amp;t=ivIziIQbt1lmrLdd2HjyfxGAYyBO4pul66hdzHLj0_Q" /></div>
<p>Finally, we have reached our data! With <strong>DB Query Reader </strong>node, we can write SQL statements in KNIME, then click <strong>Evaluate </strong>to see our script results shown above.</p>
<p>Cheers!</p>
<p>Kerem</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>KNIME Level-1 Sertifika Deneyimim</title>
		<link>https://www.caligo.com.tr/knime-level-1-sertifika-deneyimim/</link>
		
		<dc:creator><![CDATA[Volkan Çamaş]]></dc:creator>
		<pubDate>Wed, 21 Oct 2020 12:45:12 +0000</pubDate>
				<category><![CDATA[Genel]]></category>
		<category><![CDATA[Advanced Analytics]]></category>
		<category><![CDATA[Knime Certification]]></category>
		<category><![CDATA[Knime Server]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<guid isPermaLink="false">https://caligo.caligo.com.tr/?p=2725</guid>

					<description><![CDATA[KNIME ile ilgili ilk yazımda ürün ile ilgili kısa bilgilere değinmiştim. Bir süredir yer aldığımız projelerde kazandığım deneyimler, ürün ile ilgili Udemy ve KNIME tarafından düzenlenen eğitimler ile birlikte ürünün kullanımı noktasında kendimi geliştirme fırsatı buldum. Kullanım alanları ve tecrübem de arttıkça bu alandaki sertifika programını incelemeye başladım. KNIME tarafından hazırlanan sertifika programı 4 seviyeden oluşan ve temelden ileri düzeye doğru adım adım ilerleyen bir süreç [&#8230;]]]></description>
										<content:encoded><![CDATA[<div id="ember1828" class="ember-view">
<div class="reader-article-content" dir="ltr">
<p><strong>KNIME</strong> ile ilgili <a href="https://www.linkedin.com/pulse/knime-ile-ilk-bulu%C5%9Fma-volkan-%C3%A7ama%C5%9F" target="_blank" rel="noopener">ilk yazımda</a> ürün ile ilgili kısa bilgilere değinmiştim. Bir süredir yer aldığımız projelerde kazandığım deneyimler, ürün ile ilgili <a href="https://www.udemy.com/course/knime-bootcamp/learn/lecture/13667854?start=15" target="_blank" rel="nofollow noopener">Udemy</a> ve <strong>KNIME</strong> tarafından düzenlenen eğitimler ile birlikte ürünün kullanımı noktasında kendimi geliştirme fırsatı buldum. Kullanım alanları ve tecrübem de arttıkça bu alandaki <a href="https://www.knime.com/certification-program" target="_blank" rel="nofollow noopener">sertifika programını</a> incelemeye başladım. <strong>KNIME</strong> tarafından hazırlanan sertifika programı 4 seviyeden oluşan ve temelden ileri düzeye doğru adım adım ilerleyen bir süreç halinde tasarlanmış.</p>
<p>Level-1 sertifikası için aşağıdaki üç konsepte aşina olmanız bekleniyor.</p>
<ul>
<li>KNIME platform hakkında genel kavramlar (Node içerikleri hakkında genel bilgi)</li>
<li>Data Export/Import</li>
<li>Data manipulation and aggregation</li>
</ul>
<p>Diğer seviyeler ise şöyle sınıflandırılmış ;</p>
<ul>
<li>Level 2 : Advanved Proficiency in KNIME Analytics Platform</li>
<li>Level 3 : Proficiency in KNIME Software for Collaboration and Productionizing of Data Science</li>
<li>Level 4 : Proficiency in KNIME Server Setup, Management and Administration</li>
</ul>
<p>Sınava girmek için KNIME web sitesinden &#8220;eventbrite&#8221; sitesine yönlendiriliyorsunuz. Burada sertifika için ödeme yaptıktan sonra size gelen e-posta ile sınava giriş yapıyorsunuz. Gelen linke tıkladığınızda bir web sayfası ile sınavınız başlıyor. Sınav takvimi güncel olarak <a href="https://www.knime.com/certification-program" target="_blank" rel="nofollow noopener">https://www.knime.com/certification-program</a> adresinde yayınlanıyor.</p>
<p>Sınav 15 çoktan seçmeli ve her soru için 3 dakikada tamamlamanız gereken bir akışla ilerliyor. 3 dakika içinde cevap veremezseniz bir sonraki soruya geçiyor ve sınavda geçtiğiniz sorulara tekrar dönüş şansınız bulunmuyor. Bu arada sınav süreci KNIME Web portali üzerinden bir workflow ile yapılmışa benziyor. Bu da <strong>KNIME</strong>&#8216;ın vizyonu ve bu konudaki iddiasını tekrar gösteriyor.</p>
<p>Sınavda internet bağlantısı mevcut, KNIME uygulaması açılabiliyor ve dokümanlara erişim için ayrıca bir güvenlik kontrolü bulunmuyor. Sınav başlangıcında sadece kullanılmaması yönünde bir uyarıda bulunarak işin etik kısmını kullanıcılara bırakıyor.</p>
<p>Yer aldığımız projelerde de kullandığımızdan ürünü inceleyip hem de farklı kullanım alanlarını incelemiştim. Ürün ile neler yapılabilir noktasında araştırma yaparken ve örnek projeleri incelediğinizde de vizyonunuzu genişletecektir. Bu ihtiyacınız için de <a href="https://hub.knime.com/search?type=Workflow" target="_blank" rel="nofollow noopener">KNIME Hub</a> adında bir portal mevcut. Farklı projeleri indirip hangi teknolojiler ve nasıl bir tasarım uygulanmış inceleyebilirsiniz. Ayrıca daha önce sorulmuş soruları incelemek için <a href="https://forum.knime.com/" target="_blank" rel="nofollow noopener">KNIME Forum</a> oldukça işime yaradı.</p>
<p>Sorulara geçecek olursam eğer <strong>KNIME</strong> kullanıp farklı farklı nodelar ile iş geliştirdiyseniz oldukça kolay cevap verebilirsiniz. Açıkçası seviye değerlendirmek için soru setini ben çok beğendim. Ne çok basit ne de en dip köşede kalan soruları soralım gibi bir kaygı hissettirmiyor. Yaklaşık bir 5 dk içinde de sınav sonucunuz mail ile size iletiliyor. ( Aşağıda görselde bana iletilen sınav sonu maili bulunuyor, umarım diğer sınavlar da bu kadar iyi geçer 🙂 )</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4E12AQGAji38duAsSA/article-inline_image-shrink_1000_1488/0/1602061628889?e=1614211200&amp;v=beta&amp;t=Q9pawaAfjaq66IXFrbbLmXDsAzgBcUGU77wwc5wMGvU" alt="No alt text provided for this image" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4E12AQGAji38duAsSA/article-inline_image-shrink_1000_1488/0/1602061628889?e=1614211200&amp;v=beta&amp;t=Q9pawaAfjaq66IXFrbbLmXDsAzgBcUGU77wwc5wMGvU" /></div>
<p>İlk seviye sertifika için oldukça iyi bir sonuçla tamamladım. Burada KNIME ile ilgilenmemin yanı sıra iş tecrübemin sınava katkısını değerlendirecek olursam belki %15-20 arasında diyebilirim. Yani bu alanda hiç tecrübesi olmayan biri sadece ürünün eğitim dokümanlarına çalışarak ve ürün ile uygulamalar geliştirerek bu sertifikayı alabileceğini düşünüyorum. (Tabi bir yazılım ürünü öğrenme kabiliyeti de gerekiyor.)</p>
<p>Sınav ücretine değinecek olursam 100 € + Vergi ile birlikte 116 € &#8216; ya denk geliyor. Bir yazılım ürün sertifikasyonu için makul bir fiyat olarak görünse de güncel kurlar ile birlikte biraz pahalı. Güncel pandemi koşulları nedeniyle şu anda tüm sertifika sınavları online olarak yürütülüyor. <a href="https://www.knime.com/certification-program" target="_blank" rel="nofollow noopener">Linkten </a>güncellenen sınav tarihleri ve içerik hakkında daha detaylı bilgi de edinebilirsiniz.</p>
<p>Şimdilik ilk sertifika sınavından izlenimlerim bunlar, yenilerine katılmak için çalışmalarım devam ediyor. Yenileri eklendikçe de paylaşmayı planlıyorum. KNIME sertifikasyon sürecine ilgili duyan herkesin soru ve önerilerini bekliyorum.</p>
</div>
</div>
<div class="reader-flag-content__wrapper mb4 clear-both" data-ember-action="" data-ember-action-1829="1829"></div>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>KNIME ile ilk buluşma</title>
		<link>https://www.caligo.com.tr/knime-ile-ilk-bulusma/</link>
		
		<dc:creator><![CDATA[Volkan Çamaş]]></dc:creator>
		<pubDate>Fri, 25 Jan 2019 12:41:22 +0000</pubDate>
				<category><![CDATA[Genel]]></category>
		<category><![CDATA[Advanced Analytics]]></category>
		<category><![CDATA[Knime]]></category>
		<category><![CDATA[Knime Server]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<category><![CDATA[Self Service Analytics]]></category>
		<guid isPermaLink="false">https://caligo.caligo.com.tr/?p=2722</guid>

					<description><![CDATA[Bir süredir incelediğim KNIME ürünü ile ilgili bir yazı kaleme alarak ürün ile ilgili edindiğim tecrübeleri sizlerle de paylaşmak istedim. Ürün adım adım iş parçacıkları oluşturup, sonra bunları bir iş akışı içinde tasarlayabileceğiniz bir ortam sunuyor. Aşağıdaki görselde bu işler neler olabilir kategorize edilmiş. Veriye Erişim (farklı platformlar: file system, db, bigdata) &#62;&#62; Veri üzerindeki değişiklikler &#62;&#62; [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Bir süredir incelediğim <a href="https://tr.0wikipedia.org/wiki/KNIME" target="_blank" rel="nofollow noopener">KNIME </a>ürünü ile ilgili bir yazı kaleme alarak ürün ile ilgili edindiğim tecrübeleri sizlerle de paylaşmak istedim.</p>
<p>Ürün adım adım iş parçacıkları oluşturup, sonra bunları bir iş akışı içinde tasarlayabileceğiniz bir ortam sunuyor. Aşağıdaki görselde bu işler neler olabilir kategorize edilmiş.</p>
<p>Veriye Erişim (farklı platformlar: file system, db, bigdata) &gt;&gt; Veri üzerindeki değişiklikler &gt;&gt; Veri analizi &gt;&gt; Görselleştirme &gt;&gt; Çıktılarımızın paylaşımı olarak sıralayabiliriz.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQFKE6C7q6Wimg/article-inline_image-shrink_1000_1488/0/1545201209257?e=1614211200&amp;v=beta&amp;t=pCU06WNlFUdmuTbYWMA6wssovOkAuUxAK7J_Bvdpw_M" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQFKE6C7q6Wimg/article-inline_image-shrink_1000_1488/0/1545201209257?e=1614211200&amp;v=beta&amp;t=pCU06WNlFUdmuTbYWMA6wssovOkAuUxAK7J_Bvdpw_M" /></div>
<p>İlk olarak ürünün açık kaynak kodlu(<a href="https://github.com/knime/knime-core" target="_blank" rel="nofollow noopener">github</a>) ve ücretsiz olarak <a href="https://www.knime.com/downloads" target="_blank" rel="nofollow noopener">indirilip </a>kurulum dahi gerekmeden kullanılmaya başlayabileceğinizden bahsetsem yanlış olmaz sanırım. Open-source zihniyetinin benimsenmiş olduğunu, ürünü ilk açtığınızda hemen karşınıza çok geniş olarak hazırlanmış örneklerle deneyimlemeye başlayabilirsiniz. Ee ben bunu ürünü indirdim ama kullanmayı nasıl öğreneceğim dediğinizde de farklı kaynaklar sunularak ürünü öğrenmek tamamen size bırakmışlar diyebilirim.</p>
<ol>
<li><a href="https://www.knime.com/resources" target="_blank" rel="nofollow noopener">KNIME Learning Hub</a></li>
<li><a href="https://www.youtube.com/user/KNIMETV/" target="_blank" rel="noopener">YouTube KNIME TV</a></li>
<li><a href="https://www.knime.com/knime-introductory-course" target="_blank" rel="nofollow noopener">E-learning Courses(Free)</a></li>
<li><a href="https://www.knime.com/blog" target="_blank" rel="nofollow noopener">Blog </a>, <a href="https://forum.knime.com/" target="_blank" rel="nofollow noopener">Community Forum</a></li>
<li><a href="https://www.knime.com/courses" target="_blank" rel="nofollow noopener">Eğitimler</a></li>
</ol>
<p>Bu yukarıdaki saydığım zihniyetten ötürü de firmaya ve ürüne ısınmanız çok vaktinizi almıyor haliyle. Kendim için örnek verecek olursam, yaklaşık 3-4 günlük bir sürede ürünün mantığını anlayıp farklı ihtiyaçlar için kullanmaya başladım diyebilirim.</p>
<p>Çalıştığımız bir müşterimiz her hafta düzenli olarak BDDK sitesine girip sektör verilerini içeren bir excel aldığını iletti. Sonrasında bu excel üzerinde filtreleme/gruplama benzeri süreçlerden geçirdikten sonra raporlarında bu veriyi kullanıyorlar. Bu dönemde KNIME incelemesi yaptığımdan bu süreci tasarlayabilir miyiz merak ettim. Yaklaşık yarım günlük bir sürede <a href="https://github.com/volkancamas/knime/blob/master/bddk_haftal%C4%B1k.knwf" target="_blank" rel="nofollow noopener">KNIME Workflow BDDK</a> işini tasarladım. (Siz de bu akışı indirip çalıştırabilirsiniz!)</p>
<p>Aslında bu işi bir iş akışına dökmek hem işi görselleştirme konusunda yardımcı oluyor, hem de operasyon risklerden süreci arındırmış oluyor.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-middle"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQHS2JMpw-7k1g/article-inline_image-shrink_1000_1488/0/1548416692290?e=1614211200&amp;v=beta&amp;t=Bd3QQBItXNAa0ZuPsjCqnU0JpbPTTXV0zGSrk3bmz7I" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQHS2JMpw-7k1g/article-inline_image-shrink_1000_1488/0/1548416692290?e=1614211200&amp;v=beta&amp;t=Bd3QQBItXNAa0ZuPsjCqnU0JpbPTTXV0zGSrk3bmz7I" /></div>
<p><strong>Kimler kullanabilir ?</strong></p>
<p>Özellikle günlük iş akışında sıklıkla veri ile uğraşan herkesin bu ürünü incelemesinde fayda var. O yüzden bu sorunun cevabı için günümüz koşullarında bir çok farklı iş kolu sayılabilir. Finans bölümleri , iş zekası bölümleri , IT bölümleri vs.</p>
<p>Bu bir yazılım ürünü öğrenmek çok vakit alır diye düşünmeyin, indirin ve mevcutta yaptığınız bir süreci deneyin derim.</p>
<p><strong>Hangi ihtiyaçlar için konumlandırabiliriz ?</strong></p>
<p>Bana kalırsa hem çok teknik hem de çok basit ihtiyaçlar için konumlandırılabilir. Örneğin , bir ses dosyasını text bir dosyaya çevirip analiz de edebilirsiniz ya da bir excel dosyasını alıp filtreleme yaparak başka bir dosya da oluşturabilirsiniz.</p>
<ul>
<li>Öncelikle benim de şu an üzerinde çalıştığım konu olan &#8220;Self-Service BI&#8221; projelerinde iş birimlerinin farklı veri ihtiyaçlarını karşılaması için konumlandırmak mantıklı görünüyor.</li>
<li>Rutin yapılan mutabakat, karşılaştırma, sorgulama işleri için biçilmiş kaftan denilebilir. Süreci bir kere tasarlamanız yeterli olacaktır, sonrasında sadece çalıştır demeniz yeterli.</li>
<li>Machine learning, data mining, data discovery gibi çok geniş olan başlıklar için de sunulan farklı çözüm noktaları mevcut.</li>
</ul>
<p><strong>Farklı ürünler ile entegre edebilir miyim ?</strong></p>
<p>Entegrasyon sağlayabileceğiniz ürün sayısı da oldukça tatminkar görünüyor. Benim ilk olarak rastladığım ve ilginizi çekebileceğini düşündüğüm ürünleri aşağıda listeledim.</p>
<ul>
<li>Big data platforms (Hive , Impala , HDFS , Apache Spark)</li>
<li>R , Python ve Java</li>
<li>Tensorflow , Keras</li>
</ul>
<p><strong>Süreçleri otomatize/schedule edebilir miyiz ?</strong></p>
<p>Oluşturduğunuz workflowları schedule etmenin iki yöntemi var.</p>
<ol>
<li>KNIME Server satın almak</li>
</ol>
<p>KNIME server satın alarak süreçlerini schedule ederek bir web portal aracılığıyla çalıştırabilirsiniz.</p>
<p>2. Script oluşturarak windows scheduler</p>
<p>Bu süreç enterprise kullanım açısından biraz yönetmesi zor olsa da ikinci bir opsiyon olarak sayılabilir. (<a href="https://www.knime.com/faq#q12" target="_blank" rel="nofollow noopener">bknz</a>)</p>
<p><strong>Ön plana çıkan özellikleri nelerdir ?</strong></p>
<p>Ürünü kullanmaya başlamak için sayabileceğim sebepler aslında bunlar.</p>
<ul>
<li>Database push-down desteği</li>
<li>Forum ortamının olgunluk seviyesi</li>
<li>Örneklere erişim kolaylığı ve doküman zenginliği</li>
</ul>
<p><strong>Ürünün performansını nasıl değerlendirebiliriz ?</strong></p>
<p>Bir desktop ürünü olduğunu düşünürsek aslında öncelikle sizin kullandığınız bilgisayarın donanım özelliklerine bağımlı diyebilirim. Yani kullandığınız bilgisayar ne kadar iyiyse o kadar iyi bir performans alabilirsiniz.</p>
<p>Daha hızlı performansa ihtiyaç duyan kritik ihtiyaçlarınız için ise server lisansı satın alarak bir sunucu üzerinde bu işlemleri yaptırmak mümkün. İhtiyacınıza göre bir konumlandırma yapmak en doğrusu olacaktır diyebilirim.</p>
<p>İlk yazım, okuyanlar için böyle bir ürünün var olduğunu ve başlangıçta sorulabilecek sorulara yanıt bulmanız içindi. Umarım faydalı olur.</p>
<p>Saygılar.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
