<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Knime &#8211; CALIGO</title>
	<atom:link href="https://www.caligo.com.tr/tag/knime/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.caligo.com.tr</link>
	<description></description>
	<lastBuildDate>Thu, 04 Feb 2021 07:50:21 +0000</lastBuildDate>
	<language>en-US</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.1.10</generator>

<image>
	<url>https://www.caligo.com.tr/wp-content/uploads/2020/09/ico-32x35-1.png</url>
	<title>Knime &#8211; CALIGO</title>
	<link>https://www.caligo.com.tr</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Citizen Data Scientist Approach in AI Era</title>
		<link>https://www.caligo.com.tr/citizen-data-scientist-approach-in-ai-era/</link>
		
		<dc:creator><![CDATA[Deniz Konak]]></dc:creator>
		<pubDate>Fri, 25 Dec 2020 14:10:41 +0000</pubDate>
				<category><![CDATA[Advanced Analytics]]></category>
		<category><![CDATA[Citizen Data Scientist]]></category>
		<category><![CDATA[Data Science]]></category>
		<category><![CDATA[Knime]]></category>
		<guid isPermaLink="false">https://caligo.caligo.com.tr/?p=2847</guid>

					<description><![CDATA[Gartner defines Citizen Data Scientist as a person who develops/generates analytical models that use advanced analytics or predictive and prescriptive capabilities, but whose primary job function is outside the field of statistics and analytics. ( “Citizen Data Science Augments Data Discovery and Simplifies Data Science” ) In the light of Gartner’s definition, as a professional believing that Citizen Data Science approach makes Data [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><strong>Gartner</strong> defines <strong>Citizen Data Scientist</strong> as a person who develops/generates analytical models that use advanced analytics or predictive and prescriptive capabilities, but whose primary job function is outside the field of statistics and analytics. ( <a href="https://www.gartner.com/doc/3534848" target="_blank" rel="nofollow noopener">“Citizen Data Science Augments Data Discovery and Simplifies Data Science”</a> )</p>
<p>In the light of Gartner’s definition, as a professional believing that <strong>Citizen Data Science</strong> approach makes <strong>Data Science</strong> and <strong>Advanced Analytics</strong> concepts accessible to a wider audience, my aim in this article is to describe <strong>Citizen Data Scientist</strong> and the basics of this role with questions and examples from different domains.</p>
<p>Let’s start with the very first two questions:</p>
<h3><strong>What is Citizen Data Science?</strong></h3>
<p>The Citizen Data Science, which has more or less similar but many different definitions, is defined as &#8220;The discipline that fills the gap between the development / application of <strong>Advanced Analytics</strong> methods performed by the <strong>Expert Data Scientist</strong> role and the role of <strong>Self-Service Data Analytics</strong>&#8220;. Based on this definition, Citizen Data Science approach can be used even in larger organizations for discovering new data, carrying out routine and applicable analytical tasks and adopting analytical approaches by wider users.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQFutavD7FYKHQ/article-inline_image-shrink_1500_2232/0/1608887457199?e=1614816000&amp;v=beta&amp;t=5mQOtpuSmoUY-rueKpCFFp1hB1DimcJ0Rv0nXYp4V6c" alt="https://blogs.gartner.com/carlie-idoine/2018/05/13/citizen-data-scientists-and-why-they-matter/" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQFutavD7FYKHQ/article-inline_image-shrink_1500_2232/0/1608887457199?e=1614816000&amp;v=beta&amp;t=5mQOtpuSmoUY-rueKpCFFp1hB1DimcJ0Rv0nXYp4V6c" /></div>
<h3><strong>Who is Citizen Data Scientist?</strong></h3>
<p>With an alternative definition to Gartner’s, Citizen Data Scientists are <strong>powerful</strong> users who do not have deep math/stat and coding expertise but can adopt and internalize emerging technologies to meet the (medium to advanced) analytical needs required by their roles, eliminate dependencies on IT teams and enrich the process with their own deep business expertise.</p>
<p>For example, any earthquake researcher who aiming to understand earthquake behavior and tries to estimate a future effect can be named as also Citizen Data Scientist. Because she/he does not have to have a math/stat background and not responsible from new technical/theoretical developments but need to use Data Science approaches effectively to be able to analyze earthquakes with strong earthquake domain knowledge.</p>
<h3><strong>The Rise of Citizen Data Scientist</strong></h3>
<p>The main idea behind the rise of Citizen Data Scientist role can actually be explained with the most basic <strong>supply-demand</strong> principle of the economy. Since we are in <strong>AI Era</strong> and the volumes and coverage of <strong>Data</strong> are increasing day-by-day and so directly the demand of Data Scientists who can gather info and value form data is also increasing. But on the other hand, the supply of Data Scientist is not increasing as much.  This demand-supply shortage led professionals question about their actual needs, and search for new alternative solutions.</p>
<p>This questioning brings Citizen Data Scientist and effective <strong>Citizen Data Science platforms</strong> on table, such as <strong>KNIME</strong>. This is already the natural consequence of developing technology and AI. Those platforms direct users with end-to-end <strong>automated</strong> solutions and enables Citizen Data Scientists to use them for leveraging value from data for multiple purposes. On the other hand, the use of such Citizen Data Science platforms bring efficiency and accelerate the end-to-end Data Science process with their pre-defined functionalities.</p>
<p><strong>Citizen Data Science in Different Domains</strong></p>
<p>As an alternative to earthquake researcher case, I would like to mention two different cases from different industries that Citizen Data Science ease the extract gain from data.</p>
<p><strong>Case 1:</strong> Marketing in a Bank is one of the most important areas for use of Data Science tools to gain most proper information to identify true customer and manage campaigns most effectively. So, a team of marketing analysts has to use several advanced analytics methods and ML model tools for daily tasks and projects. But they do not have to be expert data scientists coming from math/stat background, they only need to use these technology tools combining with their marketing expertise. That brings the Citizen Data Scientists into the game, powerful Data Science users with strong marketing experience.</p>
<p><strong>Case 2:</strong> HR department of an Automotive Firm having more than 300K employees worldwide needs to adopt analytical tools to correctly estimate employee performances and advanced analytics for 4K positions. Specialists working at this department have deep business understanding on the performance measurement and position requirements. Using automated Data Science technologies, HR specialists with a Citizen Data Scientist role can run required analyses and manage advanced analytics processes to measure the performance of quite a huge number of employees.</p>
<p>In the Era of AI, everything is becoming more and more automated day-by-day. Nowadays, being perfect only at coding becomes less meaningful, most of the programs have their own automatic coding extensions like Python’s Jupyter Notebook (Text2Code ). Therefore trying to understand technical and theoretical basics behind your needs and using technology is just enough to do your job effectively.</p>
<p>To sum up, I tried to explain the importance of Citizen Data Scientists for different domains. There are different platforms aiming to develop the idea of Automation in Data Science. I am using KNIME and exploring its many capabilities and still surprising from time-to-time when I see what it can do. You can give KNIME a try or any other one, but you should try at least one of such platforms.</p>
<p>I am also planning to show example case stories for different domains and different tasks at my future posts.</p>
<p>I hope you enjoyed reading this post!</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Neden KNIME Server&#8217;a ihtiyaç duyuyoruz ?</title>
		<link>https://www.caligo.com.tr/neden-knime-servera-ihtiyac-duyuyoruz/</link>
		
		<dc:creator><![CDATA[Volkan Çamaş]]></dc:creator>
		<pubDate>Thu, 10 Dec 2020 12:13:18 +0000</pubDate>
				<category><![CDATA[Advanced Analytics]]></category>
		<category><![CDATA[Knime]]></category>
		<category><![CDATA[Knime Certification]]></category>
		<category><![CDATA[Knime Server]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<guid isPermaLink="false">https://caligo.caligo.com.tr/?p=2713</guid>

					<description><![CDATA[Daha önceki yazılarımda KNIME ile ilgili ürünün kullanım alanları ve sertifikasyon sürecinden bahsetmiştim. Çalıştığımız kurumsal firmalarda ne zaman bir ürün kullanımı gündeme gelse ücretsiz bile olsa öncelikle governance, güvenlik,performans ve yetkilendirme konuları ön plana çıkmaktadır. Bu kadar kapsamlı ve çeşitli entegrasyonlar sağlayabildiğiniz bir ürün olunca da haliyle sadece desktop bir uygulama ile bu süreçleri yönetmek [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Daha önceki yazılarımda KNIME ile ilgili ürünün kullanım alanları ve sertifikasyon sürecinden bahsetmiştim. Çalıştığımız kurumsal firmalarda ne zaman bir ürün kullanımı gündeme gelse ücretsiz bile olsa öncelikle governance, güvenlik,performans ve yetkilendirme konuları ön plana çıkmaktadır. Bu kadar kapsamlı ve çeşitli entegrasyonlar sağlayabildiğiniz bir ürün olunca da haliyle sadece desktop bir uygulama ile bu süreçleri yönetmek mümkün mü detaylarıyla incelemek istedim.</p>
<p><strong>KNIME Analytics Platform</strong>, ücretsiz olarak indirilebilen bir desktop uygulamasıdır. Veri bilimi başlığı altında yer alan veri hazırlama, modelleme ve görselleştirme süreçlerini akış olarak tasarlayabileceğiniz bir platformdur.</p>
<p><strong>KNIME Server, </strong>tasarlanan akışların ortak bir sunucuya taşınması ile birlikte yönetimi,izlenmesi ve başka uygulamalardan verinin sorgulanmasını amaçlamaktadır.</p>
<p>Genelde bu tip yazılım ürünlerinde bazı özelliklerin kısıtlı olduğunu görürüz ve kurumsal bir uygulamada kullanma ihtiyacınız olduğunda en gerekli özellikleri kullanılamadığından sizi yatırım yapmaya mecbur bırakır. Ancak <strong>KNIME Analytics Platform</strong> kullanırken böyle bir deneyim yaşamıyorsunuz, tüm özellikler açık ve herhangi bir son kullanım tarihi bulunmuyor. KNIME gelir modelini sadece eğitim, danışmanlık ve <strong>KNIME Serve</strong>r lisanslaması olarak konumlandırmış.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQGK8Am-OyIfcw/article-inline_image-shrink_1000_1488/0/1607199683617?e=1614211200&amp;v=beta&amp;t=t_awHOJaAvZQ4j1ObbEQeB1L_SZW6HXAE40AicQbGPM" alt="No alt text provided for this image" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQGK8Am-OyIfcw/article-inline_image-shrink_1000_1488/0/1607199683617?e=1614211200&amp;v=beta&amp;t=t_awHOJaAvZQ4j1ObbEQeB1L_SZW6HXAE40AicQbGPM" /></div>
<p>Aşağıdaki maddelerde de neden Analytics Platform kullanırken neden Server yatırımı yapmak gerektiği konusunda detaylı yorumlarıma yer verdim.</p>
<p><strong>1- Takım Çalışması</strong></p>
<p>KNIME Server ile birlikte hayatımızda değişen ilk şey takım çalışması/iş birliği olarak belirtiliyor. Server ile birlikte aslında klasik kurumsal uygulamalardaki paylaşım süreçleri hizmet olarak sunuluyor. Yani burada birim veya proje bazlı oluşturduğunuz akışlarınız artık kişisel bilgisayarlarınız yerine bir sunucuda tutulur hale gelmiş oluyor. (Yazılımcılar için TFS, iş birimleri içinse network sharing folder gibi düşünebiliriz.) Bu sayede kurumunuzdaki işler birimler arası paylaşıma mümkün hale gelmiş oluyor. Ayrıca bir sunucu üzerinde süreçleri yönetmenin yedekleme ve versiyonlama açısından da daha sağlıklı olacağı unutulmamalıdır.</p>
<p><strong>2- Otomatizasyon</strong></p>
<p>Veri hazırlığı ve raporlama süreçlerinde otomatikleştirme(scheduling) konusu olmazsa olmaz diyebiliriz. KNIME kullanıyorsanız ve tasarlamış olduğunuz akışınızın belirli periyotlarda çalışmasını bekliyorsanız bunun farklı opsiyonları olsa da ben en yaygın 2 yöntemi paylaşacağım.</p>
<p>Birincisi, KNIME web sitesindeki <a href="https://www.knime.com/faq#q12" target="_blank" rel="nofollow noopener">sıkça sorulan sorular</a> ve <a href="https://stackoverflow.com/questions/55101024/knime-windows-scheduler-task-without-server" target="_blank" rel="nofollow noopener">stackoverflow </a>aramalarında denk geldiğim bir yöntem. Windows task scheduler kullanarak tasarlamış olduğunuz akışınızı tanımlı bir zamanda tekrar tekrar çalıştırabilirsiniz. Bu yöntemi ücretsiz ve herhangi bir sunucuya ihtiyaç duymadan uygulayabilirsiniz. Burada sadece her gün çalışsın gibi bir beklentiniz var ise kendi bilgisayarınızın da o saatler çalıştığından emin olmalısınız !</p>
<pre spellcheck="false">knime.exe -consoleLog -noexit -nosplash -application org.knime.product.KNIME_BATCH_APPLICATION -workflowDir="workspace/Knime_project"
</pre>
<p>İkinci yöntem ise KNIME server satın aldığınızda web portal aracılığı ile sunucuya yüklediğiniz akışlarınızı akış adı ve periyot tanımlayarak hızlı ve kolay olarak uygulayabilirsiniz.</p>
<p>İlk yöntem biraz daha araştırma veya eğitim amaçlı daha bireysel bir kullanım için konumlandırılabilir. Biraz daha merkezi bir uygulama ve kompleks yapılar kurgulamaya ihtiyaç duyduğunuzda ise yönetim anlamındaki ihtiyaçlar ve operasyonel risklerin azaltılması için önerilen yöntem KNIME server üzerinde bu süreci yönetmek olacaktır.</p>
<p><strong>3- Görselleştirme</strong></p>
<p>Veri ile ilgili yapılan her projede günün sonunda görsel çıktılara ulaşmak yapılan işin okunurluğunu ve izlenmesini sağlamaktadır. Benim kişisel olarak beklentim klasik grafikleri çizsin yeterken, inceledikçe aslında iyi seviyede çıktılara kolayca ulaşmanın mümkün olduğunu gördüm. Ayrıca kod seviyesinde de size Javascript ve CSS olarak müdahale ettirdiğinden dolayı yapacağınız işin sınırı size kalmış denebilir.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQEQApCzR1xbLA/article-inline_image-shrink_1000_1488/0/1605545946209?e=1614211200&amp;v=beta&amp;t=1piP5qYoQSa287YnLEnS-dYuBtdw6man3xT-SFOCbIs" alt="No alt text provided for this image" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQEQApCzR1xbLA/article-inline_image-shrink_1000_1488/0/1605545946209?e=1614211200&amp;v=beta&amp;t=1piP5qYoQSa287YnLEnS-dYuBtdw6man3xT-SFOCbIs" /></div>
<p>Server olmadan da yukarıdaki çıktılara benzer grafikleri kendi bilgisayarınızda oluşturabilirsiniz. Ancak paylaşım konusunda herkes günlük/haftalık periyotlarla yenilen grafiklere bir portalden erişsin beklentiniz olursa sunucuya ihtiyaç duyacaksınız. Diğer türlü bu çıktıları alıp e-posta yoluyla göndermek de bir tercih olabilir.</p>
<p><strong>4- Performans</strong></p>
<p>Performans, neden bir server yatırımı yapalım konusunda bence en güçlü nedenlerden biri. Verilerinizi kurumunuzun veritabanlarından erişerek aldınız ancak analitik ihtiyaçlarınıza özel Knime komponentleri kullanma ihtiyacınız var. Verilerinizin boyutları da milyonlar seviyesine ulaşıyorsa burada kendi bilgisayarınıza büyük iş düşüyor, çoğu zamanda memory hataları almanıza neden olacaktır. Yani özetle hem kompleks hesaplamalar yapacağım hem de kullanmış olduğunuz veri seti kişisel bir bilgisayarda işlemek için çok büyük boyutlarda diyorsanız, server yatırımı yapmanız performans gibi bir kaygıdan sizi kurtaracaktır. Hele ki hızlı cevap almak istediğiniz ve anlık çalışsın diye düşündüğünüz ihtiyaçlarınız için konumlandırmak istiyorsanız, sunucu olmazsa olmaz diyebilirim. (Örn: Fraud Detection, Recommendation Engine vb.)</p>
<p><strong>5- Entegrasyon</strong></p>
<p>Sunucu yatırımı yapmak için en önemli nedenlerden biri de entegrasyon diyebiliriz. KNIME Server&#8217;a yüklediğiniz akışlarınıza artık REST API ile erişebilir hale geliyorsunuz. Bu özellik size farklı uygulamalar ile entegrasyon kurabilmenizi ve tasarladığınız süreçleri dış dünyaya açabilmenizi sağlıyor. Yukarıda örnek verdiğim Fraud Detection için bir model kurdunuz ve bunu transaction anında uygulamanızda kullanmak istiyorsunuz. Transaction anında ilgili Knime akışını tetikleyip işlemin fraud olup olmadığı bilgisini model sonucunuza göre sorgulama yapabilirsiniz.</p>
<p>Ayrıca sunucudaki bir çok farklı konuda da dışarıdan API ile erişim sağlayarak çözüm bulabilirsiniz. Örnek olarak</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQEoyomF32yoyA/article-inline_image-shrink_1500_2232/0/1606038742505?e=1614211200&amp;v=beta&amp;t=wRGBUKEL4gorazs4O5PGw6dXZNSYJQcwK-DjxrEv9W4" alt="No alt text provided for this image" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQEoyomF32yoyA/article-inline_image-shrink_1500_2232/0/1606038742505?e=1614211200&amp;v=beta&amp;t=wRGBUKEL4gorazs4O5PGw6dXZNSYJQcwK-DjxrEv9W4" /></div>
<p><strong>6- İzleme ve Yönetim</strong></p>
<p>Ürün üzerinde farklı süreçler tasarlayıp genel kullanıma yaygınlaştırılmak istendiğinde hem izleme hem yönetim iki önemli madde diyebiliriz. İzleme altında sunucuda çalışan işlerin durumunu, sunucunun sağlığını izlenmesi gibi konular önem arz etmeye başlıyor. Yönetim başlığı altında ise ilk olarak yetkilendirme konusu hayatımıza giriyor. Çalışan işleri kimler tasarlayabilir,görebilir ya da çalıştırabilir yetkilerinin düzenlenmesi, farklı ekipler arasındaki ortak süreçlerin tasarlanması gibi ihtiyaçlar da yetkilendirme yetenekleri ile süreçlerinizi yönetebilirsiniz.</p>
<p>Bir sunucu kurulumu yaptığınızda da KNIME tarafından hazırlanmış Admin akışları default tanımlı olarak sunucuda yer almaktadır.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQGx_pXZYRJe2g/article-inline_image-shrink_1000_1488/0/1606038393941?e=1614211200&amp;v=beta&amp;t=Azac0-MYsUch53V5v5P5WL7CLrNZFNNwCUr96ra52qo" alt="No alt text provided for this image" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQGx_pXZYRJe2g/article-inline_image-shrink_1000_1488/0/1606038393941?e=1614211200&amp;v=beta&amp;t=Azac0-MYsUch53V5v5P5WL7CLrNZFNNwCUr96ra52qo" /></div>
<p><strong>7- Metadata Analizi</strong></p>
<p>Genelde bu tip ürünlerde kullanıcıların yaptıkları çalışmalar repository veritabanlarında tutulmaktadır. KNIME alışılanın aksine hazırladığınız her akış için bir knwf adında bir dosyada oluşturmaktadır ve herhangi bir databasede çalışamlarınızın detaylarını kaydetmemektedir. Bu dosyalar yine bir akış içerisinde XML formatına çevrilerek, workflowlar içerisinde kullanılan database objeleri nelerdir, hangi nodelar kullanılmış, çıktı olarak sonuçlar nelerdir gibi analizler çıkarmak mümkün hale gelmektedir. Ancak herkesin kişisel bilgisayarında Analytics Platform kullandığı bir senaryo düşünürsek böyle bir analizi yapmak mümkün olamayacaktı. Bu konuyla ilgili araştırma yaparken KNIME Hub&#8217;da denk geldiğim iki örneğe de aşağıda yer vermek istedim.</p>
<h3><a href="https://hub.knime.com/temesgen-dadi/spaces/Public/latest/01_Data_Lineage_via_KNIME_WebPortal" target="_blank" rel="nofollow noopener"><strong>Data Lineage via KNIME WebPortal</strong></a></h3>
<h3><a href="https://hub.knime.com/navinjadhav/spaces/Public/latest/Collect_and_display_Workflow_Summaries_using_KNIME_Server" target="_blank" rel="nofollow noopener"><strong>Collect Workflow Information from KNIME Server REST API</strong></a></h3>
<p><strong>Özet</strong></p>
<p>Aslında yukarıda saydığım maddeler &#8220;enterprise&#8221; ihtiyaçlar ortaya çıktığında akla ilk gelen konular diyebiliriz. Burada ürünün öne çıkan özelliği, herhangi bir satın alma yapmadan ürünün ihtiyaçlarınıza cevap verip veremeyeceğini test edebileceğiniz bir ortam sağlamasıdır. Kendi deneyimlerim ve araştırmalarım sonucunda, desktop uygulaması olan Analytics Platform bireysel olarak inceleme ve analizleriniz için yeterli olacaktır ama daha yaygın bir kullanım planlıyorsanız KNIME Server almak en akılcı karar olacaktır.</p>
<p>KNIME üzerinde farklı denemeler yapmaya devam ediyorum, merak edenler olursa seve seve destek olabilirim. Ayrıca <a href="https://forum.knime.com/" target="_blank" rel="nofollow noopener">KNIME Forum</a>&#8216;a da yazarsanız büyük ihtimalle aynı gün probleminize ya da sorunuza cevap alabilirsiniz. Geçen haftalarda yapılan &#8220;Fall Summit 2020&#8221; de Level-2 sertifikasını da almaya hak kazandım. Sınav ile ilgili değerlendirmelerimi de ayrıca yazmayı planlıyorum.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Good at Theory? We are The King of the Jungle</title>
		<link>https://www.caligo.com.tr/good-at-theory-we-are-the-king-of-the-jungle/</link>
		
		<dc:creator><![CDATA[Kerem Kabil]]></dc:creator>
		<pubDate>Thu, 03 Dec 2020 13:05:12 +0000</pubDate>
				<category><![CDATA[Advanced Analytics]]></category>
		<category><![CDATA[Knime]]></category>
		<category><![CDATA[Knime Server]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<guid isPermaLink="false">https://caligo.caligo.com.tr/?p=2737</guid>

					<description><![CDATA[In my first post about KNIME, &#8220;How to Set Up an Oracle Connection&#8221; , I mentioned that the connection between KNIME and an Oracle Database. Now, we will take a glance at a simple classification workflow in KNIME. Firstly, I would like to briefly talk about one of the advantages of KNIME provides. Whatever analytical tool we [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>In my first post about KNIME, <em>&#8220;How to Set Up an Oracle Connection&#8221; , </em>I mentioned that the connection between KNIME and an Oracle Database. Now, we will take a glance at a simple classification workflow in KNIME.</p>
<p>Firstly, I would like to briefly talk about one of the advantages of KNIME provides.</p>
<p>Whatever analytical tool we use like Python, R, SQL etc., we need to use some coding things to carry out below general analytics steps. That means, no matter how good our theoretical knowledge is, it is quite difficult to do anything without coding skills. <strong><u>I have no intention to denigrate coding, on the contrary it is a crucial thing in data world and undoubtedly it will be</u>.</strong> What I want to say is that coding can sometimes be an obstacle to one with high theoretical knowledge. In KNIME, our dependency on coding is <u>reduced</u>. That&#8217; s the correct sentence. Generally, we can build analytical processes without any coding thing. That means, if we have a good theoretical knowledge about analytics, we are the king of the jungle!</p>
<p>Let&#8217; s see the simple workflow shown below to prove that dependency on coding is reduced.</p>
<p>Before building a such workflow, we need to take a look at the following generalized steps,</p>
<ul>
<li>Data Collecting and Understanding</li>
<li>Data Preprocessing</li>
<li>Modelling</li>
<li>Evaluating the Model</li>
</ul>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C5612AQH97FYwTdXYzQ/article-inline_image-shrink_1500_2232/0/1606840867820?e=1614211200&amp;v=beta&amp;t=S6JlAodfyXY9NxsHsAEqxq9njK2WywQ08pqAtN18_oY" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C5612AQH97FYwTdXYzQ/article-inline_image-shrink_1500_2232/0/1606840867820?e=1614211200&amp;v=beta&amp;t=S6JlAodfyXY9NxsHsAEqxq9njK2WywQ08pqAtN18_oY" /></div>
<p>As we see above, we can easily built a classification model. KNIME can perform all processes with its nodes, all we need to do configuring the nodes. It will be quite easy, if we have a good theoretical knowledge.</p>
<p>Let&#8217; s take a closer look at these four generalized analtyics steps in KNIME.</p>
<ul>
<li><strong>Data Collecting and Understanding</strong></li>
</ul>
<p>Each analytics process starts collecting data. Our data can be stored in different sources like database, .csv, .xls, .xml etc. To handle this, KNIME has a corresponding node for each data source to collect data. Some of these nodes are Oracle/ MySQL/ Postgre Connector, CSV Reader, Excel Reader, XML Reader respectively. As each node has its own configuration node, we can easily collect data by using this specialized configurations.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-middle"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C5612AQFoPEK7--RvKw/article-inline_image-shrink_1000_1488/0/1606840910356?e=1614211200&amp;v=beta&amp;t=Tlb2VKXyMcSCLsWJUXAl4JuVvceapnCfgYEbfJbp30Y" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C5612AQFoPEK7--RvKw/article-inline_image-shrink_1000_1488/0/1606840910356?e=1614211200&amp;v=beta&amp;t=Tlb2VKXyMcSCLsWJUXAl4JuVvceapnCfgYEbfJbp30Y" /></div>
<p>The image shown above shows our data collecting and understanding part for our sample. As our data is stored in an oracle database, we&#8217; ve used Oracle Connector node to connect the data source. DB Query Reader has been used for retrieving data with a SQL query.</p>
<p>For data understanding, we&#8217; ve used Data Explorer node. With this node, we can take a rapid glance at our data i.e we can see the types of attributes, how many missing values the data contains and distribution of each attributes etc.</p>
<ul>
<li><strong>Data Preprocessing</strong></li>
</ul>
<p>In our sample workflow, we don&#8217;t need to perform various preprocessing steps. For this data, all we need to do converting double typed attributes into integer and filling missing values. So, we&#8217; ve used Double to Int and Missing Value nodes. Then, we&#8217; ve used Partitioning node to perform splitting data into train and test set.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-middle"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQGIGCE_niC6fA/article-inline_image-shrink_1000_1488/0/1606800547457?e=1614211200&amp;v=beta&amp;t=eo_fZ21rM5fLYGbGgYlNLTPlyyCV86TmZ1uXv5yyDos" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQGIGCE_niC6fA/article-inline_image-shrink_1000_1488/0/1606800547457?e=1614211200&amp;v=beta&amp;t=eo_fZ21rM5fLYGbGgYlNLTPlyyCV86TmZ1uXv5yyDos" /></div>
<p>KNIME has various nodes for preprocessing like One To Many, String Manipulation, String to Number, Groupby etc. There are almost every node that may be needed for preprocessing. In parallel, KNIME has also another node for partitioning called X-Partitioner comes with X-Aggregator.</p>
<ul>
<li><strong>Modelling</strong></li>
</ul>
<p>In KNIME, all algorithms represents different nodes like any other operations. For algorithms under the predictive analytics (Logistic Regression, SVM, &#8230;) roof represents two nodes, Learner and Predictor. We train our model with Learner node. Then, we test our model with Predictor node by using train data comes from output of Partitioning node.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-middle"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQHGrS6Ao7YGXg/article-inline_image-shrink_1000_1488/0/1606800581263?e=1614211200&amp;v=beta&amp;t=c61VLmJ99bU1RWjSG2ogoS8QfkXPlryAgTloSF-wKkw" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQHGrS6Ao7YGXg/article-inline_image-shrink_1000_1488/0/1606800581263?e=1614211200&amp;v=beta&amp;t=c61VLmJ99bU1RWjSG2ogoS8QfkXPlryAgTloSF-wKkw" /></div>
<p>In our sample workflow, we&#8217; ve used simple Decision Tree algorithms, and one can see this predictive algorithm represents with two different nodes shown above.</p>
<ul>
<li><strong>Evaluating the Model</strong></li>
</ul>
<p>At the end, builded model needs to be evaluated. To evaluate a model, Scorer nodes can be used. With this node, we can evaluate basic performance metrics (accuracy, recall, precision, Cohen&#8217; s Kappa) of the corresponding model. Scorer node has two different types, Scorer and Scorer (JavaScript). While Scorer (JavaScript) offers an interactive output, Scorer offers simpler output, that&#8217; s the difference between these two nodes.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-middle"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQEr-tRqGSwyiQ/article-inline_image-shrink_1000_1488/0/1606800599537?e=1614211200&amp;v=beta&amp;t=h8iQEcJOUEyv6XU2f6icu87Ncx3BmOXGI9nkpcmnmMc" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQEr-tRqGSwyiQ/article-inline_image-shrink_1000_1488/0/1606800599537?e=1614211200&amp;v=beta&amp;t=h8iQEcJOUEyv6XU2f6icu87Ncx3BmOXGI9nkpcmnmMc" /></div>
<p>One thing about Scorer nodes, these nodes can perform on a model with <u>categorical target</u>. If we have a model with numerical target like Regression, we need to use Numeric Scorer node.</p>
<p>So far, thanks to the advantages of KNIME provides, we&#8217; ve seen that we can easily built an analytical model without any coding. Althought we are not dependent on coding here, sometimes it is necessary to use it. In case we need to use it, KNIME also handles this quite easily 🙂</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>KNIME Fall Summit Ardından</title>
		<link>https://www.caligo.com.tr/knime-fall-summit-ardindan/</link>
		
		<dc:creator><![CDATA[Deniz Konak]]></dc:creator>
		<pubDate>Wed, 02 Dec 2020 13:01:32 +0000</pubDate>
				<category><![CDATA[Advanced Analytics]]></category>
		<category><![CDATA[Knime]]></category>
		<category><![CDATA[Knime Fall Summit]]></category>
		<category><![CDATA[Self Service Analytics]]></category>
		<guid isPermaLink="false">https://caligo.caligo.com.tr/?p=2734</guid>

					<description><![CDATA[16 &#8211; 20 Kasım tarihlerinde gerçekleşen KNIME Fall Summit ardından organizasyona ve içeriklere dair düşüncelerimi sizlerle paylaşmak istedim. İlk 3 günün farklı seviye eğitimler ve sınavlarla, 3. günden itibaren de farklı coğrafya ve sektörlerden KNIME kullanıcılarının başarı hikayelerini anlattıkları oturumlarla dolu 5 günlük bir organizasyon deneyimledik. Bunların yanı sıra, KNIME Time başlıklı, Analitik Platform ve Server ürünlerindeki en yeni gelişmelerin ve kullanım senaryolarının anlatıldığı [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><strong>16 &#8211; 20 Kasım</strong> tarihlerinde gerçekleşen <strong>KNIME Fall Summi</strong>t ardından organizasyona ve içeriklere dair düşüncelerimi sizlerle paylaşmak istedim.</p>
<p>İlk 3 günün farklı seviye eğitimler ve sınavlarla, 3. günden itibaren de farklı coğrafya ve sektörlerden <strong>KNIME kullanıcılarının başarı hikayelerini</strong> anlattıkları oturumlarla dolu 5 günlük bir organizasyon deneyimledik. Bunların yanı sıra, <strong>KNIME Time</strong> başlıklı, <strong>Analitik Platform ve Server</strong> ürünlerindeki en yeni gelişmelerin ve kullanım senaryolarının anlatıldığı oturumlar da oldukça ilgi çekici ve faydalı idi.</p>
<p>Daha kolay anlatabilmek için Summit değerlendirmemi 3 başlık altında ilerleteceğim;</p>
<p><em>1-     KNIME Trainings &amp; Certification</em></p>
<p><em>2-     Use Case &amp; Success Stories</em></p>
<p><em>3-     KNIME Time</em></p>
<p>Tüm başlıklar için keyifli okumalar dilerim!</p>
<p>&nbsp;</p>
<h3><strong>1-     KNIME Trainings &amp; Certification</strong></h3>
<p>Öncelikle bu bizim <strong>CALIGO</strong> olarak <strong>KNIME partner</strong>i olmamız sonrasında katıldığımız ilk KNIME Summit idi. Bu nedenle de eğitimleri ve sertifika sınav oturumlarını ayrı bir heyecanla bekledik.</p>
<p>Summit kapsamında KNIME tarafından planlanan <strong>L1, L2, L3 ve L4</strong> olmak üzere her seviyede ve <strong>Data Science</strong> döngüsünün farklı aşamalarına odaklanmış 20’ye yakın eğitim gerçekleştirildi. Biz <strong>CALIGO</strong> <strong>ekibi</strong> olarak öncesinde de uzun süredir üzerinde çalıştığımız bu eğitimlerin pek çoğuna katılarak sonunda yapılan sınavda sertifikalarımızı aldık!</p>
<p>Eğitime katılan her birimizin istisnasız ilk yaptığı yorum, eğitim süresince sorulan her soruya, takılınan her noktaya çok çok kısa sürede ve detaylı bir yanıt aldığımız oldu. Tüm bu süreçte eğitmen de dahil tüm KNIME ekibinin eğitimi eksiksiz aktarmak ve anlaşılmayan nokta bırakmamak konusundaki eforu inanılmazdı. Buna dayanarak şunu söyleyebilirim ki, <strong>daha önce KNIME kullanıcısı olmasanız dahi eğitimler size tüm kapsamı özümsetmek konusunda amacına tam olarak hizmet ediyordu.</strong></p>
<h3><strong>2-     Use Cases &amp; Success Stories</strong></h3>
<p>KNIME kendisini Data Science disiplininde iki temel faz olan geliştirme ve üretim aşamaları arasındaki geçişi sağlayan bir köprü platform olarak konumlandırıyor. Diğer bir ifade ile modellerin öğrenmesi ve üretim ortamına alınması aşamaları arasında bir kopukluk yaşamadan, Data Science uygulamalarınızı uygulamaya geçirebilir ve sonrasında izleme, yeniden geliştirme gibi süreçleri yine KNIME üzerinde yapabilirsiniz. Summit süresince üzerinde konuşulan başarı hikayeleri KNIME’ın sağladığı bu özellikler bütününün tümünün ya da belirli aşamalarının benimsenmesi ve projelerde hayata geçirilmesi hakkındaydı. Benim en çok ilgilimi çeken 2 başlığı paylaşmak istiyorum. Bu başlıklar dışındaki tüm oturumların videolarına yazının en altına eklediğim linkten ulaşabilirsiniz.</p>
<p><strong><em>Customer Data Scoring &amp; Data Privacy Using KNIME WebPortal, Speaker: James Grimes (Truata), Moderator: Cynthia Padilla (KNIME)</em></strong></p>
<p>Sıfırdan kod yazmalarına gerek olmayacak bir platform arayışı ile KNIME ile çalışmaya başlayan Dublin merkezli Truata, müşterilerine sunduğu gizlilik temelli skorlama hizmeti için tüm süreçlerinde KNIME Server kullanımlarını ve karşılaşmayı bekledikleri zorlukları nasıl çözdüklerini bu oturumda anlatıyor. Birden çok müşteriye de hizmet verilen bu çözüm benim kişisel ve profesyonel olarak da ekstra ilgimi çekti. Skorlama süreçlerini yeniden değerlendirmek ve daha efektif hala getirmek isteyen ekipler için bu oturumu dinlemelerini muhakkak öneririm.</p>
<p><strong><em>Integrated Deployment, Speaker: Zehra Hussein (Kasasa), Moderator: Phil Winters (KNIME)</em></strong></p>
<p>KNIME ile nasıl tanıştıklarından başlayarak; ML flowlarının geliştirilmesi, üretime alınması ve düzenli iyileştirilebilmesi amacı ile KNIME kullanım deneyimlerini anlatan Kasasa, bu sayede küçük bir organizasyon olarak megabankalar ile nasıl rekabet edebildiklerine değiniyor. Daha küçük bütçelerle uçtan uca teknoloji çözümlerine dair fikir arayanlar bu videoyu izlemeli.</p>
<p>&nbsp;</p>
<h3><strong>3-     KNIME Time</strong></h3>
<p>KNIME, Server ürünü ücretli ama bir desktop uygulaması olan Analtik Platform kullanımı ücretsiz olan bir yazılım. Ve bu ücretsiz platformda kısıtlanmış herhangi bir özelliği bulunmuyor. Bunun yanında, çok çok gelişmiş ve aradığınız her soruya cevap bulabildiğiniz bir KNIME ekosistemi var. Bu ekosistem, KNIME Hub, Forum, Extensions ve ücretsiz eğitimler gibi pek çok bileşene sahip bir web platformu üzerinden sunuluyor.</p>
<p>Summit kapsamında yapılan KNIME Time oturumları da tüm bu ekosistem dahilinde var olan bileşenlerdeki son gelişmeleri bizim gibi kullanıcılara anlatmak ve KNIME’ın daha etkin kullanılmasına fayda sağlamak amacına hizmet ediyordu. Bu kapsamda hem analitik platform hem de server için nelerin yeni olduğu, neler üzerinde çalışıldığı ve tüm bu yeniliklere nasıl ulaşabileceğimiz konusunda yol gösterici oldu. Size de yol gösterebileceğini düşündüğünüz tüm KNIME Time oturumlarına hemen alttaki linkten ulaşabilirsiniz. (KNIME Time kayıtları biraz sayfanın aşağılarına doğru, vazgeçmeden sayfada ilerleyin)</p>
<p>Sevgiler,</p>
<p><strong><em>Deniz</em></strong></p>
<p><strong><u>KNIME Fall Summit:</u></strong></p>
<p><a href="https://www.knime.com/knime-fall-summit-2020?utm_source=pardot&amp;utm_medium=email&amp;utm_term=&amp;utm_content=&amp;utm_campaign=Summit-Fall-2020" target="_blank" rel="nofollow noopener">https://www.knime.com/knime-fall-summit-2020?utm_source=pardot&amp;utm_medium=email&amp;utm_term=&amp;utm_content=&amp;utm_campaign=Summit-Fall-2020</a></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>KNIME ile &#8220;Citizen Data Scientist&#8221;​ Yaklaşımına İlk Adım</title>
		<link>https://www.caligo.com.tr/knime-ile-citizen-data-scientist%e2%80%8b-yaklasimina-ilk-adim/</link>
		
		<dc:creator><![CDATA[Deniz Konak]]></dc:creator>
		<pubDate>Mon, 02 Nov 2020 12:56:55 +0000</pubDate>
				<category><![CDATA[Genel]]></category>
		<category><![CDATA[Advanced Analytics]]></category>
		<category><![CDATA[Citizen Data Scientist]]></category>
		<category><![CDATA[Data Science]]></category>
		<category><![CDATA[Knime]]></category>
		<category><![CDATA[Knime Server]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<guid isPermaLink="false">https://caligo.caligo.com.tr/?p=2730</guid>

					<description><![CDATA[ Artificial Intelligence (Yapay Zeka), Machine Learning (Makine Öğrenmesi) ve Data Science (Veri Bilimi) başlıkları aslında çok yeni olmasalar da hızla gelişen teknoloji ve buna bağlı olarak artan veri büyüklükleri ile son yılların en trend başlıklarından oldular. Birbirleriyle farklı noktalarda kesişimleri olan bu kavramlar temel olarak Data Science disiplini ile Advanced Analytics çerçevesinde değerlendirilen uygulamalara temel oluşturuyorlar. Uzun yıllardır hem profesyonel hayatta hem de [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><strong><em> Artificial Intelligence (Yapay Zeka),</em></strong> <strong><em>Machine Learning (Makine Öğrenmesi)</em></strong> ve <strong><em>Data Science (Veri Bilimi)</em></strong> başlıkları aslında çok yeni olmasalar da hızla gelişen teknoloji ve buna bağlı olarak artan veri büyüklükleri ile son yılların en trend başlıklarından oldular. Birbirleriyle farklı noktalarda kesişimleri olan bu kavramlar temel olarak <strong><em>Data Science</em></strong> disiplini ile <strong><em>Advanced Analytics</em></strong> çerçevesinde değerlendirilen uygulamalara temel oluşturuyorlar.</p>
<p>Uzun yıllardır hem profesyonel hayatta hem de öncesinde akademik ve öğrencilik hayatında <strong>SAS, MATLAB, Gauss, SPSS, R</strong> ve <strong>Python</strong> gibi kod ve node bazlı farklı programları kullanarak pek çok model geliştirmiş ve bu disiplini içselleştirmiş bir uzman gözünden bir yazı dizisi kaleme almak istedim. Gündeme getirmek istediğim konulardan biri, Data Science denilince akla gelen satırlarca kodlama gereksinimi artık gerçekten zorunlu mu? Yoksa artık kendine <strong>Citizen Data Scientist</strong> yaklaşımını benimsemiş Analitik Platformlar bu dünyada yeni bir akım mı yaratıyorlar?</p>
<p>Bu yazı dizininin ilk bölümünde aktif olarak R ve Python tecrübelerim sonrası, <strong>KNIME Analitik Platformu </strong>ile tanışma sürecimdeki ilk yorumlarımı ve karar noktalarımı paylaşmak istiyorum.</p>
<p>Pek çok farklı analitik programlama dili ve model geliştirme tecrübesi sonrası iş bilgisinin en az teknik/teknolojik bilgi kadar önemli olduğuna inanan biri olarak neden KNIME kullanmalıyım? KNIME öğrenme algoritmalarının uygulanması ve süreçlerin tasarlanması noktalarında nasıl konumlandırılabilir? Bu iki konu KNIME ile çalışmaya daha başlamadan cevaplarını bulmak için kafamda oluşturduğum temel iki soru başlığı idi. Sırasıyla bu başlıklar altını nasıl doldurdum birlikte bakalım.</p>
<p><strong>Neden KNIME kullanılmalı?</strong></p>
<p><strong>Artifical Intelligence /Augmented Intelligence</strong> kavramlarının temel amacı olan <strong>insanın yapabildiği işlerin makineler tarafından yapılabilmesi</strong> yaklaşımı temelde Citizen Data Scientist yaklaşımı ile de örtüşmekte. Ve bu temelde Data Science alanında insan eliyle uzun uzun kodlar yazılması yerine, Citizen Data Scientist prensibini benimsemiş ve hali hazırda var olan node’lar üzerinden çalışan Data Science platformlarının kullanılmaya başlanması aynı düşünceye dayanmakta. Kendisine bu yaklaşımı benimsemiş olan KNIME platformu da Data Science disiplinini içselleştirmek isteyen herkesin öncelikli ihtiyaç olarak gördüğü kod öğrenme fazını atlatarak hızlıca üretmeye başlamasına yardımcı olacak şekilde geliştirilmiş. Uçtan uca tüm Data Science sürecine hizmet eden KNIME hem <strong>Data Engineer</strong>, hem <strong>Data Scientist</strong> hem de <strong>Data Analyst</strong> rollerinin ihtiyaç duyduğu gereksinimlere cevap veren bir platform. Bu sayede IT bağımlılıkları, çok yüksek kodlama maliyetleri ve süreçlerin her aşamasının farklı farklı uygulamalar ve platformlar üzerinde sürdürülmesi nedeniyle oluşan verimsizlik ve zaman kaybı konularını minimum seviyeye indirmek mümkün. KNIME ve benzeri analitik platformlar sayesinde aslında sadece Python ve R gibi kodlama dillerini bilenlerin kendilerine kolaylıkla Data Scientist diyemeyeceği, bu disiplinin en temelinde <strong>istatistik ve matematik</strong> bilgisi ile <strong>derin iş bilgisinin</strong> olduğu gerçeğinin daha iyi anlaşılacağı bir döneme geçiş yapıyoruz.</p>
<p><strong> KNIME nasıl konumlandırılabilir?</strong></p>
<p>Artık bütün şirketleri birer veri ve teknoloji şirketi olarak konumlandırabileceğimiz bir dönemdeyiz. Ve her şirketin öncelikli işlerinden biri elindeki veriyi işlemek ve kullanmak iken bu amaca kolaylık sağlayarak hizmet eden KNIME analitik platformunu, analitik çözümleri içselleştirmek ve kurum içinde yaygınlaştırmak, ve buna hızlıca adım atmak isteyen organizasyonlarda başından sonuna tüm analitik süreçlerin üzerinde ilerleyebileceği temel platform olarak konumlandırarak; veri yönetimi, analitik, risk-pazarlama gibi iş birimleri ve IT ekiplerinin aynı dili konuştuğu bir sinerji yakalamak çok mümkün.</p>
<p>Özetlemek gerekirse; Data Science ve Advanced Analytics disiplinlerine farklı açılardan bakıp, ilgili süreçlerin temellerinden olan iş bilgisi ve teorik birikimin veriyi ve ihtiyacı anlayıp yorumlamak konusunda herhangi bir yazılım dilini çok iyi bilmekten daha önemli olduğuna inanan ve uzun süredir de bunu tecrübe etmiş biri olarak, KNIME Platformunun Data Science ve Advanced Analytics disiplinine bakış açımızı değiştirdiğini ve bu disiplini daha erişilebilir bir noktaya getirdiğini söyleyebilirim. Diğer bir deyişle teorik model geliştirme yapmayan bir kullanıcının ihtiyaç duyduğu model için sıfırdan kodlama yapması ihtiyacı artık ortadan kalkıyor. Ve bu sayede pek çok farklı model üzerinde çalışmak ve optimal modele karar vermek süreci kolaylaşıyor.</p>
<p><strong>Citizen Data Scientist</strong></p>
<p>KNIME ile tanışmamın ve çalışmaya başlamamın benim için en büyük kazanımlarından biri de Citizen Data Scientist kavramını yakından tanımam ve her zaman inandığım teknik geliştirici olmayan kişilerin kodlama gurusu olmasının gerekmediği düşüncesine temel oluşturması oldu. Teknolojinin geldiği noktada bu yaklaşımın benimsenmesi ve yakın-orta vadede ulaşabileceği potansiyeli düşünmek beni gerçekten çok heyecanlandırıyor.</p>
<p>Kendi profesyonel görüşüm doğrultusunda geleceğe yönelik olasılıkları düşünürken sektördeki pek çok üst düzey profesyonelin bakış açısını ve teknolojik gelişmeleri yakından izleyip üzerinde çalıştığımız konuların akıbetlerine yön veren Gartner gibi şirketlerin Citizen Data Scientist kavramı ve buna bağlı disiplinler üzerine güncel araştırmalarını ve ilişkili yazıları incelemek düşüncelerimin önemli dayanak noktasını oluşturuyor.</p>
<p>Benim gibi düşünen ve Citizen Data Scientist kavramını merak eden pek çok kişi olduğuna inanıyorum. Bu nedenle bu yazı dizisinin 2. bölümünde Citizen Data Scientist kavramını etraflıca anlatıp, işimizi kolaylaştıracağı noktalara değineceğim. Sonrasında ise KNIME ile pek çok örnek üzerinden bu kavramın hayatımızı nasıl kolaylaştıracağını paylaşacağım.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>KNIME Analytics: How to Set Up an Oracle Connection</title>
		<link>https://www.caligo.com.tr/knime-analytics-how-to-set-up-an-oracle-connection/</link>
		
		<dc:creator><![CDATA[Kerem Kabil]]></dc:creator>
		<pubDate>Mon, 02 Nov 2020 12:36:53 +0000</pubDate>
				<category><![CDATA[Advanced Analytics]]></category>
		<category><![CDATA[Knime]]></category>
		<category><![CDATA[Knime Server]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<category><![CDATA[Oracle Connection]]></category>
		<category><![CDATA[Oracle Driver]]></category>
		<guid isPermaLink="false">https://caligo.caligo.com.tr/?p=2719</guid>

					<description><![CDATA[KNIME is an end to end data analytical tool. With its nodes, all analytical processes of data can be easily built. Every data project starts with accessing the data. Like any other analytical tools KNIME has several ways of accessing different types of data. Our data may be stored as .csv, .xlsx, .txt etc. or [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>KNIME is an end to end data analytical tool. With its nodes, all analytical processes of data can be easily built.</p>
<p>Every data project starts with accessing the data. Like any other analytical tools KNIME has several ways of accessing different types of data. Our data may be stored as .csv, .xlsx, .txt etc. or in most of real-world cases the data is stored in a database. Here, our main focus is on accessing to data stored in a database.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQERLEpkHmpGTQ/article-inline_image-shrink_1000_1488/0/1604307341581?e=1614211200&amp;v=beta&amp;t=uf_EoHWIeH0VJvu9Q_y2C9Ys3NnlXU6MCaxHKQcTTTM" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQERLEpkHmpGTQ/article-inline_image-shrink_1000_1488/0/1604307341581?e=1614211200&amp;v=beta&amp;t=uf_EoHWIeH0VJvu9Q_y2C9Ys3NnlXU6MCaxHKQcTTTM" /></div>
<p>At the image shown above, we can see different database management system nodes of KNIME. These connector nodes create a connection to corresponding databases. If we want to access to data stored in database, we must implement these nodes into our workflow. However, there is an important configuration difference between the connectors under the green roof and the connector under the orange roof. The difference is MySQL, PostgreSQL and Microsoft SQL Server have defined driver name, but Oracle not.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQHDZxgJOQ6tLw/article-inline_image-shrink_1000_1488/0/1604307370651?e=1614211200&amp;v=beta&amp;t=eZpodE5oM1veQzrMr0NoX3cV-m89uzQ7Erq5lObYUy4" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQHDZxgJOQ6tLw/article-inline_image-shrink_1000_1488/0/1604307370651?e=1614211200&amp;v=beta&amp;t=eZpodE5oM1veQzrMr0NoX3cV-m89uzQ7Erq5lObYUy4" /></div>
<p>We have determined the difference between configuration of Oracle Connector and the others so far.</p>
<p>Now, we can see the configuration windows of KNIME Microsoft SQL Server Connector and Oracle Connector nodes. As we see, there is no defined driver name in Oracle Connector while Microsoft SQL Server has. If we have a look at configuration windows of MySQL Connector and PostgreSQL Connector as well, we will see a defined driver name.</p>
<h2>All good, but what is the driver?</h2>
<p>Driver or JDBC Driver defines and creates a connection between KNIME and corresponding database. So, if we want to create a connection between KNIME and a database, there must be a defined JDBC Driver.</p>
<h2>Why is there no defined JDBC Driver in Oracle Connector Node?</h2>
<p>Oracle JDBC Driver is not a part of the KNIME, because there is a license restriction of Oracle. So, if we need to use Oracle Connector in our workflow, Oracle JDBC Driver needs to be registered manually. For more detailed information:</p>
<p><a href="https://kni.me/n/_fvEBQvrof1kSz-X" target="_blank" rel="nofollow noopener">https://kni.me/n/_fvEBQvrof1kSz-X</a></p>
<h2>How to register Oracle JDBC Driver manually?</h2>
<p>Firstly, we need to download Oracle JDBC Driver related to our database via <a href="https://www.oracle.com/database/technologies/appdev/jdbc-downloads.html" target="_blank" rel="nofollow noopener">https://www.oracle.com/database/technologies/appdev/jdbc-downloads.html</a>. Which database release (11g, 12c, &#8230;) is installed in your system, we need to download Oracle JDBC Driver related to your own installed database. Having downloaded the Oracle JDBC Driver, we need to register that driver manually. To do that, please follow the following path:</p>
<p><strong>File -&gt; Preferences -&gt; KNIME -&gt; Databases</strong></p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQE9NODP59vgag/article-inline_image-shrink_1000_1488/0/1604307509307?e=1614211200&amp;v=beta&amp;t=v_MThC5bHkt18nR3XLNUcE_OY6PtVRcSu4fYIV04ry0" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQE9NODP59vgag/article-inline_image-shrink_1000_1488/0/1604307509307?e=1614211200&amp;v=beta&amp;t=v_MThC5bHkt18nR3XLNUcE_OY6PtVRcSu4fYIV04ry0" /></div>
<p>Now, click <strong>Add</strong> to register Oracle JDBC Driver manually.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQGoBfkxLB1owQ/article-inline_image-shrink_1000_1488/0/1604307535256?e=1614211200&amp;v=beta&amp;t=EEbyGSydqB522Zhw-VtglE_y6mztpjLSah3kybYIevI" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQGoBfkxLB1owQ/article-inline_image-shrink_1000_1488/0/1604307535256?e=1614211200&amp;v=beta&amp;t=EEbyGSydqB522Zhw-VtglE_y6mztpjLSah3kybYIevI" /></div>
<p>Fill the <strong>ID</strong> and <strong>Name</strong> with Oracle, and select the Database Type with oracle. Having configured these parts, please click <strong>Add File </strong>to show Oracle JDBC file where located in your system. Then, click <strong>Find driver classes </strong>and KNIME find our driver class and version. Click <strong>OK </strong>and <strong>Apply and Close </strong>to quit.</p>
<p>Good, we have registered Oracle JDBC Driver manually. Let’s take a glance at Oracle Connector node again.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQF-R0znSOZomg/article-inline_image-shrink_1000_1488/0/1604307566140?e=1614211200&amp;v=beta&amp;t=zxRcGh_Gz-dxktF_HFNhx6T27LowXs1-USV9j62Bbug" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQF-R0znSOZomg/article-inline_image-shrink_1000_1488/0/1604307566140?e=1614211200&amp;v=beta&amp;t=zxRcGh_Gz-dxktF_HFNhx6T27LowXs1-USV9j62Bbug" /></div>
<p>Perfect! Our Oracle Connector node has a Driver Name now.</p>
<p>To connect our database, we need to fill <strong>Hostname</strong>, <strong>Port</strong>, <strong>Database</strong> <strong>name</strong> and</p>
<p><strong>Authentication</strong> with our database information and our credentials.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQHcYOvUJ8Rzsg/article-inline_image-shrink_1000_1488/0/1604307610547?e=1614211200&amp;v=beta&amp;t=RHpvk_HOpWPmDrwSc7yjW0n6cMTk4zMp2VxDDwSFT0E" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQHcYOvUJ8Rzsg/article-inline_image-shrink_1000_1488/0/1604307610547?e=1614211200&amp;v=beta&amp;t=RHpvk_HOpWPmDrwSc7yjW0n6cMTk4zMp2VxDDwSFT0E" /></div>
<p>Having configured database information and authentication credentials correctly, please click <strong>Apply </strong>and see the traffic lights turn green. This means that we have now connected our database!</p>
<p>Let&#8217;s read a dummy table from our database.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQH3xVPWXrH2fw/article-inline_image-shrink_1000_1488/0/1604307651221?e=1614211200&amp;v=beta&amp;t=ivIziIQbt1lmrLdd2HjyfxGAYyBO4pul66hdzHLj0_Q" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQH3xVPWXrH2fw/article-inline_image-shrink_1000_1488/0/1604307651221?e=1614211200&amp;v=beta&amp;t=ivIziIQbt1lmrLdd2HjyfxGAYyBO4pul66hdzHLj0_Q" /></div>
<p>Finally, we have reached our data! With <strong>DB Query Reader </strong>node, we can write SQL statements in KNIME, then click <strong>Evaluate </strong>to see our script results shown above.</p>
<p>Cheers!</p>
<p>Kerem</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>KNIME ile ilk buluşma</title>
		<link>https://www.caligo.com.tr/knime-ile-ilk-bulusma/</link>
		
		<dc:creator><![CDATA[Volkan Çamaş]]></dc:creator>
		<pubDate>Fri, 25 Jan 2019 12:41:22 +0000</pubDate>
				<category><![CDATA[Genel]]></category>
		<category><![CDATA[Advanced Analytics]]></category>
		<category><![CDATA[Knime]]></category>
		<category><![CDATA[Knime Server]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<category><![CDATA[Self Service Analytics]]></category>
		<guid isPermaLink="false">https://caligo.caligo.com.tr/?p=2722</guid>

					<description><![CDATA[Bir süredir incelediğim KNIME ürünü ile ilgili bir yazı kaleme alarak ürün ile ilgili edindiğim tecrübeleri sizlerle de paylaşmak istedim. Ürün adım adım iş parçacıkları oluşturup, sonra bunları bir iş akışı içinde tasarlayabileceğiniz bir ortam sunuyor. Aşağıdaki görselde bu işler neler olabilir kategorize edilmiş. Veriye Erişim (farklı platformlar: file system, db, bigdata) &#62;&#62; Veri üzerindeki değişiklikler &#62;&#62; [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Bir süredir incelediğim <a href="https://tr.0wikipedia.org/wiki/KNIME" target="_blank" rel="nofollow noopener">KNIME </a>ürünü ile ilgili bir yazı kaleme alarak ürün ile ilgili edindiğim tecrübeleri sizlerle de paylaşmak istedim.</p>
<p>Ürün adım adım iş parçacıkları oluşturup, sonra bunları bir iş akışı içinde tasarlayabileceğiniz bir ortam sunuyor. Aşağıdaki görselde bu işler neler olabilir kategorize edilmiş.</p>
<p>Veriye Erişim (farklı platformlar: file system, db, bigdata) &gt;&gt; Veri üzerindeki değişiklikler &gt;&gt; Veri analizi &gt;&gt; Görselleştirme &gt;&gt; Çıktılarımızın paylaşımı olarak sıralayabiliriz.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQFKE6C7q6Wimg/article-inline_image-shrink_1000_1488/0/1545201209257?e=1614211200&amp;v=beta&amp;t=pCU06WNlFUdmuTbYWMA6wssovOkAuUxAK7J_Bvdpw_M" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQFKE6C7q6Wimg/article-inline_image-shrink_1000_1488/0/1545201209257?e=1614211200&amp;v=beta&amp;t=pCU06WNlFUdmuTbYWMA6wssovOkAuUxAK7J_Bvdpw_M" /></div>
<p>İlk olarak ürünün açık kaynak kodlu(<a href="https://github.com/knime/knime-core" target="_blank" rel="nofollow noopener">github</a>) ve ücretsiz olarak <a href="https://www.knime.com/downloads" target="_blank" rel="nofollow noopener">indirilip </a>kurulum dahi gerekmeden kullanılmaya başlayabileceğinizden bahsetsem yanlış olmaz sanırım. Open-source zihniyetinin benimsenmiş olduğunu, ürünü ilk açtığınızda hemen karşınıza çok geniş olarak hazırlanmış örneklerle deneyimlemeye başlayabilirsiniz. Ee ben bunu ürünü indirdim ama kullanmayı nasıl öğreneceğim dediğinizde de farklı kaynaklar sunularak ürünü öğrenmek tamamen size bırakmışlar diyebilirim.</p>
<ol>
<li><a href="https://www.knime.com/resources" target="_blank" rel="nofollow noopener">KNIME Learning Hub</a></li>
<li><a href="https://www.youtube.com/user/KNIMETV/" target="_blank" rel="noopener">YouTube KNIME TV</a></li>
<li><a href="https://www.knime.com/knime-introductory-course" target="_blank" rel="nofollow noopener">E-learning Courses(Free)</a></li>
<li><a href="https://www.knime.com/blog" target="_blank" rel="nofollow noopener">Blog </a>, <a href="https://forum.knime.com/" target="_blank" rel="nofollow noopener">Community Forum</a></li>
<li><a href="https://www.knime.com/courses" target="_blank" rel="nofollow noopener">Eğitimler</a></li>
</ol>
<p>Bu yukarıdaki saydığım zihniyetten ötürü de firmaya ve ürüne ısınmanız çok vaktinizi almıyor haliyle. Kendim için örnek verecek olursam, yaklaşık 3-4 günlük bir sürede ürünün mantığını anlayıp farklı ihtiyaçlar için kullanmaya başladım diyebilirim.</p>
<p>Çalıştığımız bir müşterimiz her hafta düzenli olarak BDDK sitesine girip sektör verilerini içeren bir excel aldığını iletti. Sonrasında bu excel üzerinde filtreleme/gruplama benzeri süreçlerden geçirdikten sonra raporlarında bu veriyi kullanıyorlar. Bu dönemde KNIME incelemesi yaptığımdan bu süreci tasarlayabilir miyiz merak ettim. Yaklaşık yarım günlük bir sürede <a href="https://github.com/volkancamas/knime/blob/master/bddk_haftal%C4%B1k.knwf" target="_blank" rel="nofollow noopener">KNIME Workflow BDDK</a> işini tasarladım. (Siz de bu akışı indirip çalıştırabilirsiniz!)</p>
<p>Aslında bu işi bir iş akışına dökmek hem işi görselleştirme konusunda yardımcı oluyor, hem de operasyon risklerden süreci arındırmış oluyor.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-middle"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQHS2JMpw-7k1g/article-inline_image-shrink_1000_1488/0/1548416692290?e=1614211200&amp;v=beta&amp;t=Bd3QQBItXNAa0ZuPsjCqnU0JpbPTTXV0zGSrk3bmz7I" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQHS2JMpw-7k1g/article-inline_image-shrink_1000_1488/0/1548416692290?e=1614211200&amp;v=beta&amp;t=Bd3QQBItXNAa0ZuPsjCqnU0JpbPTTXV0zGSrk3bmz7I" /></div>
<p><strong>Kimler kullanabilir ?</strong></p>
<p>Özellikle günlük iş akışında sıklıkla veri ile uğraşan herkesin bu ürünü incelemesinde fayda var. O yüzden bu sorunun cevabı için günümüz koşullarında bir çok farklı iş kolu sayılabilir. Finans bölümleri , iş zekası bölümleri , IT bölümleri vs.</p>
<p>Bu bir yazılım ürünü öğrenmek çok vakit alır diye düşünmeyin, indirin ve mevcutta yaptığınız bir süreci deneyin derim.</p>
<p><strong>Hangi ihtiyaçlar için konumlandırabiliriz ?</strong></p>
<p>Bana kalırsa hem çok teknik hem de çok basit ihtiyaçlar için konumlandırılabilir. Örneğin , bir ses dosyasını text bir dosyaya çevirip analiz de edebilirsiniz ya da bir excel dosyasını alıp filtreleme yaparak başka bir dosya da oluşturabilirsiniz.</p>
<ul>
<li>Öncelikle benim de şu an üzerinde çalıştığım konu olan &#8220;Self-Service BI&#8221; projelerinde iş birimlerinin farklı veri ihtiyaçlarını karşılaması için konumlandırmak mantıklı görünüyor.</li>
<li>Rutin yapılan mutabakat, karşılaştırma, sorgulama işleri için biçilmiş kaftan denilebilir. Süreci bir kere tasarlamanız yeterli olacaktır, sonrasında sadece çalıştır demeniz yeterli.</li>
<li>Machine learning, data mining, data discovery gibi çok geniş olan başlıklar için de sunulan farklı çözüm noktaları mevcut.</li>
</ul>
<p><strong>Farklı ürünler ile entegre edebilir miyim ?</strong></p>
<p>Entegrasyon sağlayabileceğiniz ürün sayısı da oldukça tatminkar görünüyor. Benim ilk olarak rastladığım ve ilginizi çekebileceğini düşündüğüm ürünleri aşağıda listeledim.</p>
<ul>
<li>Big data platforms (Hive , Impala , HDFS , Apache Spark)</li>
<li>R , Python ve Java</li>
<li>Tensorflow , Keras</li>
</ul>
<p><strong>Süreçleri otomatize/schedule edebilir miyiz ?</strong></p>
<p>Oluşturduğunuz workflowları schedule etmenin iki yöntemi var.</p>
<ol>
<li>KNIME Server satın almak</li>
</ol>
<p>KNIME server satın alarak süreçlerini schedule ederek bir web portal aracılığıyla çalıştırabilirsiniz.</p>
<p>2. Script oluşturarak windows scheduler</p>
<p>Bu süreç enterprise kullanım açısından biraz yönetmesi zor olsa da ikinci bir opsiyon olarak sayılabilir. (<a href="https://www.knime.com/faq#q12" target="_blank" rel="nofollow noopener">bknz</a>)</p>
<p><strong>Ön plana çıkan özellikleri nelerdir ?</strong></p>
<p>Ürünü kullanmaya başlamak için sayabileceğim sebepler aslında bunlar.</p>
<ul>
<li>Database push-down desteği</li>
<li>Forum ortamının olgunluk seviyesi</li>
<li>Örneklere erişim kolaylığı ve doküman zenginliği</li>
</ul>
<p><strong>Ürünün performansını nasıl değerlendirebiliriz ?</strong></p>
<p>Bir desktop ürünü olduğunu düşünürsek aslında öncelikle sizin kullandığınız bilgisayarın donanım özelliklerine bağımlı diyebilirim. Yani kullandığınız bilgisayar ne kadar iyiyse o kadar iyi bir performans alabilirsiniz.</p>
<p>Daha hızlı performansa ihtiyaç duyan kritik ihtiyaçlarınız için ise server lisansı satın alarak bir sunucu üzerinde bu işlemleri yaptırmak mümkün. İhtiyacınıza göre bir konumlandırma yapmak en doğrusu olacaktır diyebilirim.</p>
<p>İlk yazım, okuyanlar için böyle bir ürünün var olduğunu ve başlangıçta sorulabilecek sorulara yanıt bulmanız içindi. Umarım faydalı olur.</p>
<p>Saygılar.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
