<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>CALIGO</title>
	<atom:link href="https://www.caligo.com.tr/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.caligo.com.tr</link>
	<description></description>
	<lastBuildDate>Thu, 04 Feb 2021 07:50:28 +0000</lastBuildDate>
	<language>en-US</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.1.10</generator>

<image>
	<url>https://www.caligo.com.tr/wp-content/uploads/2020/09/ico-32x35-1.png</url>
	<title>CALIGO</title>
	<link>https://www.caligo.com.tr</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>KNIME Analytics: Flow Variables, The Red Line</title>
		<link>https://www.caligo.com.tr/knime-analytics-flow-variables-the-red-line/</link>
		
		<dc:creator><![CDATA[Kerem Kabil]]></dc:creator>
		<pubDate>Tue, 02 Feb 2021 07:48:28 +0000</pubDate>
				<category><![CDATA[Advanced Analytics]]></category>
		<category><![CDATA[Flow Variables]]></category>
		<category><![CDATA[knime analytics]]></category>
		<category><![CDATA[The red line]]></category>
		<guid isPermaLink="false">https://www.caligo.com.tr/?p=2945</guid>

					<description><![CDATA[A workflow can be defined as a collection of nodes. Depending on used nodes and its configurations, workflows can run either statically or dynamically. So, what does statically and dynmaically running mean? A workflow can be called as statically running if it generates same result at each run. On the contrary, a workflow generating different [&#8230;]]]></description>
										<content:encoded><![CDATA[<div id="ember1449" class="ember-view">
<div class="reader-article-content" dir="ltr">
<p>A workflow can be defined as a collection of nodes. Depending on used nodes and its configurations, workflows can run either statically or dynamically.</p>
<p><strong>So, what does statically and dynmaically running mean?</strong></p>
<p>A workflow can be called as statically running if it generates same result at each run. On the contrary, a workflow generating different results by using different parameter at every run can be called as dynamically running. To make a workflow dynamic, we need flow variables.</p>
<p><strong>How do flow variables appear in a workflow?</strong></p>
<p>Generally, there are two different lines, black and red, connecting nodes in a workflow. The black one carries data like table, image, json, html etc. from node to another node while the red one carries variables.</p>
<p><strong>All good, but how can we create them?</strong></p>
<p>Answer of this question depends on needs. At this point, we just need to decide what we need and apply. Let&#8217; s take a look at how can we use flow variables in a workflow.</p>
<p>There are generally two ways to create and use flow variables in a workflow.</p>
<ul>
<li>Using Configuration Nodes For Flow Variable Creation</li>
</ul>
<p>Sometimes we need to ask the user to enter a value -parameter- before running a workflow. This value may vary according to the needs of the user. So, we need to create a structure that capture these values entered by the user. Configuration (Double Configuration, Integer Configuration etc.) and Selection Nodes (Value Selection, Single Selection etc.) allows us to handle this problem.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQHItF2uSSJpvg/article-inline_image-shrink_1000_1488/0/1610323216385?e=1617840000&amp;v=beta&amp;t=KE_-2ANG8bbEiZ-Zq1n_Py-KwXR261eNvMy29R-gBpw" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQHItF2uSSJpvg/article-inline_image-shrink_1000_1488/0/1610323216385?e=1617840000&amp;v=beta&amp;t=KE_-2ANG8bbEiZ-Zq1n_Py-KwXR261eNvMy29R-gBpw" /></div>
<p>We can see a sample sketchy workflow above. Thanks to Value Selection Node, we can capture the values entered by a user. As we see above, there are two values, Gender and M, entered by a user. These two values are called as variables. So far, we have captured user-defined variables. Now, let&#8217; s feed our workflow with these variables. To do that, we need to connect corresponding nodes with a red line.</p>
<p>Now, let&#8217; s take a closer look Row Filter dialog window. When we jump in the Flow Variables tab, we can see ColumnName and Pattern selections. As given below, we can define these selections to be fed by variables.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQH_u8WZLVv6Bg/article-inline_image-shrink_1000_1488/0/1610324180068?e=1617840000&amp;v=beta&amp;t=tPta-Dk9htEYSL_rasd4jvX4WzsgEAuq5z1oSpOPlGY" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQH_u8WZLVv6Bg/article-inline_image-shrink_1000_1488/0/1610324180068?e=1617840000&amp;v=beta&amp;t=tPta-Dk9htEYSL_rasd4jvX4WzsgEAuq5z1oSpOPlGY" /></div>
<p>ColumnName is fed by <strong>user-defined-variable(column)</strong> variable i.e Gender, Pattern is fed by <strong>user-defined-variable </strong>variable i.e M.</p>
<p>If we take a look at the Row Filter output shown below, we can see the data filtered by M value in Gender column thanks to flow variables.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQExUsKk1y16yA/article-inline_image-shrink_1000_1488/0/1612270176913?e=1617840000&amp;v=beta&amp;t=6WOa-g4fFfE5wQCcyuqsSGou5_BuPFmesKFMA0WcRKQ" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQExUsKk1y16yA/article-inline_image-shrink_1000_1488/0/1612270176913?e=1617840000&amp;v=beta&amp;t=6WOa-g4fFfE5wQCcyuqsSGou5_BuPFmesKFMA0WcRKQ" /></div>
<p>Thus, if the user enter another values, we can easily consider that the output data will be filtered with another user-defined values. By this way, each value entered by a user will be filtered automatically at the final table. This means that our workflow works dynamically.</p>
<p>If our goal is to filter a table by a specific value, one can think that this is not a only way to do that. Right, there are multiple ways to build a workflow in KNIME. In this case, we could have only used Row Filter node to filter a table by a specific value, but the flow will turn into a &#8220;static&#8221; structure. This means that each time we want to change the filtering criteria, we need to configure Row Filter node again.</p>
<ul>
<li>Building a Loop</li>
</ul>
<p>Another way to use flow variables is to build a loop. Sometimes, we don&#8217; t have to pick a value from a user. However, we may need to use corresponding values iteratively.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQELpZwJtwqr1A/article-inline_image-shrink_1000_1488/0/1611578450656?e=1617840000&amp;v=beta&amp;t=NZyPlQBlsqOcZgc5ND_ghlltFpvhULgQaQbio_PkCf0" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQELpZwJtwqr1A/article-inline_image-shrink_1000_1488/0/1611578450656?e=1617840000&amp;v=beta&amp;t=NZyPlQBlsqOcZgc5ND_ghlltFpvhULgQaQbio_PkCf0" /></div>
<p>As we can see the above sample, there is a recursively structure fed by flow variables at each iteration.</p>
<p>Consider that we have a transaction data, and we want to mark those data with a specific value like &#8220;1&#8221; or &#8220;0&#8221;.</p>
<p>Now, let&#8217; s take a look our data shown below.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQHWGwBYHsWLFg/article-inline_image-shrink_1000_1488/0/1611578706504?e=1617840000&amp;v=beta&amp;t=3MY1yZQGYknQdkuUFphsK9y6xPNdg8o6S1dXv5B9ZDU" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQHWGwBYHsWLFg/article-inline_image-shrink_1000_1488/0/1611578706504?e=1617840000&amp;v=beta&amp;t=3MY1yZQGYknQdkuUFphsK9y6xPNdg8o6S1dXv5B9ZDU" /></div>
<p>What we want to do here is to mark each transaction according to whether a transaction contains a certain value or not.</p>
<p>Let&#8217; s show these markups in a new column with the help of Rule Engine node.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQFRGTo0AX-wnw/article-inline_image-shrink_1000_1488/0/1611579049526?e=1617840000&amp;v=beta&amp;t=vC4HEyCUxvQ8NJpyn0OE79gL1Ej_8PBDtzJKh_56024" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQFRGTo0AX-wnw/article-inline_image-shrink_1000_1488/0/1611579049526?e=1617840000&amp;v=beta&amp;t=vC4HEyCUxvQ8NJpyn0OE79gL1Ej_8PBDtzJKh_56024" /></div>
<p>As we can see above, we have just one marked transaction so far. If we run the Loop End node, all transactions will be marked thanks to flow variable loop structure.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQHCMYzDB1p-nA/article-inline_image-shrink_1000_1488/0/1611579448764?e=1617840000&amp;v=beta&amp;t=hsc5gQ3CHHc1QedzOtNEPRtHB1xWnrRKQZ9e6tMg240" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQHCMYzDB1p-nA/article-inline_image-shrink_1000_1488/0/1611579448764?e=1617840000&amp;v=beta&amp;t=hsc5gQ3CHHc1QedzOtNEPRtHB1xWnrRKQZ9e6tMg240" /></div>
<p>Thanks to the Table Row to Variable Loop Start Node, we have marked all transaction data with using flow variable in each iteration.</p>
<p>In this skecth, how variables are created and how they are used in general are mentioned. Sure, using flow variables depends on user needs. So, use of flow variables can not be limited. Here, only most common uses are mentioned.</p>
<p>Cheers</p>
<p>-Kerem</p>
</div>
</div>
<div class="reader-flag-content__wrapper mb4 clear-both" data-ember-action="" data-ember-action-1450="1450"></div>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>İki rutinle ekip ruhunu oluşturabileceğinizi söylesem?</title>
		<link>https://www.caligo.com.tr/iki-rutinle-ekip-ruhunu-olusturabileceginizi-soylesem/</link>
		
		<dc:creator><![CDATA[Bengisu Karakılınıç]]></dc:creator>
		<pubDate>Mon, 28 Dec 2020 07:40:37 +0000</pubDate>
				<category><![CDATA[Genel]]></category>
		<category><![CDATA[Inspiration]]></category>
		<category><![CDATA[Motivation]]></category>
		<category><![CDATA[Productivity]]></category>
		<category><![CDATA[Routine]]></category>
		<category><![CDATA[TeamWork]]></category>
		<guid isPermaLink="false">https://www.caligo.com.tr/?p=2919</guid>

					<description><![CDATA[Siz de ekip içerisinde sinerji oluşturmakta zaman zaman zorlanıyor musunuz? Ekibe katılanlar, ayrılanlar derken bu enerjiyi stabil tutmak bazen zor olabiliyor. Yeni üyelerin adapte olması, aynı sosyal dili konuşabilmek zaman gerektiriyor. Şirket ekosisteminde her şey güzel giderken birden herkes kendini teslim tarihleri sebebiyle işlere gömülmüş ve uzaklaşmış hissedebilir. Aslında kıymetli olan o yoğunlukta bile motive [&#8230;]]]></description>
										<content:encoded><![CDATA[<div class="n p">
<div class="aj ak al am an gn ap w">
<p id="4ecc" class="ig ih gp ii b ij ik il im in io ip iq ir is it iu iv iw ix iy iz cs ex" data-selectable-paragraph="">Siz de ekip içerisinde sinerji oluşturmakta zaman zaman zorlanıyor musunuz? Ekibe katılanlar, ayrılanlar derken bu enerjiyi stabil tutmak bazen zor olabiliyor. Yeni üyelerin adapte olması, aynı sosyal dili konuşabilmek zaman gerektiriyor.</p>
<p id="11dc" class="ig ih gp ii b ij ja ik il im jb in io ip jc iq ir is jd it iu iv je iw ix iz cs ex" data-selectable-paragraph="">Şirket ekosisteminde her şey güzel giderken birden herkes kendini teslim tarihleri sebebiyle işlere gömülmüş ve uzaklaşmış hissedebilir. Aslında kıymetli olan o yoğunlukta bile motive olup akan hayatı kaçırmamaktır. Diğer türlü hayatın kaçtığını görünce stresli ve mutsuz bir çalışma ortamı oluşuyor. Bizler de bu durumu engellemek için kendi içimizde rutinler oluşturmaya başladık.</p>
<figure class="jg jh ji jj jk jl gc gd paragraph-image">
<div class="gc gd jf">
<div class="jq s ah jr">
<div class="js jt s"><img decoding="async" loading="lazy" class="qk ql gf fu fr jn w c" src="https://miro.medium.com/max/400/1*WFIvulq2I1clAsRTRyCMTA.png" sizes="200px" srcset="" alt="Image for post" width="200" height="356" /></div>
</div>
</div>
</figure>
<p id="5d09" class="ig ih gp ii b ij ja ik il im jb in io ip jc iq ir is jd it iu iv je iw ix iz cs ex" data-selectable-paragraph="">Bu rutinlerden ilk<span id="rmm">i</span> Nike Run uygulamasında yarışma düzenlemek oldu. Yarışmayı daha eğlenceli hale getirmek ve rekabeti arttırmak için birinci olana vermek üzere kendi aramızda bir ödül belirledik. Hem ödülü kazanma arzusu hem de yarışmanın fiziksel faydasını fark etmemiz ekip içinde motivasyonumuzu çok yükseltti. Uygulama içinde koşuya başlayınca yarışmacılara bildirim gidiyor “Bengisu koşuya çıktı.” şeklinde. Yarışmacılar da koşuya çıkan kişiye oturdukları yerden motivasyon efekti gönderebiliyor. Koşu sırasında kulaklığınızdan gelen ekip arkadaşınızın “Bravoooooo” bildirimi yüzünüzde kocaman bir gülümsemeye sebep oluyor. <em class="jx">“Ben çalışmaktan daha fazlasını paylaştığım insanlarla birlikteyim”</em> diyebilmeye başlıyorsunuz. Ekip WhatsApp grubu yarışmaya başladığımız günden itibaren susmadı. Birbirimizden mekansal olarak bağımsız ama disiplin olarak bağlı bir sosyal etkinlik oluşturabildik. Ekip içi iletişimimiz çok yükseldi ve kendimizi, birbirimizi evden çıkıp koşmak için motive ederken bulduk.</p>
</div>
</div>
<div class="jl">
<div class="n p">
<div class="jy jz ka kb kc kd am ke an kf ap w">
<div class="jg jh ji jj jk n ar">
<figure class="fw jl kg el kh ki kj paragraph-image">
<div class="kk kl ah km w kn" tabindex="0" role="button">
<div class="jq s ah jr">
<div class="ko jt s">
<div class="ev jm gf fu fr jn w er jo jp"></div>
<p><img decoding="async" loading="lazy" class="qk ql gf fu fr jn w c" src="https://miro.medium.com/max/1500/1*qnzUYz8K8N1evVY3gVWbNA.png" sizes="500px" srcset="https://miro.medium.com/max/552/1*qnzUYz8K8N1evVY3gVWbNA.png 276w, https://miro.medium.com/max/1000/1*qnzUYz8K8N1evVY3gVWbNA.png 500w" alt="Image for post" width="750" height="1334" /></p>
</div>
</div>
</div>
</figure>
<figure class="fw jl kg el kh ki kj paragraph-image">
<div class="kk kl ah km w kn" tabindex="0" role="button">
<div class="jq s ah jr">
<div class="ko jt s">
<div class="ev jm gf fu fr jn w er jo jp"></div>
<p><img decoding="async" loading="lazy" class="qk ql gf fu fr jn w c" src="https://miro.medium.com/max/1500/1*54R-DhBL1S-8p6-wwdA_6w.png" sizes="500px" srcset="https://miro.medium.com/max/552/1*54R-DhBL1S-8p6-wwdA_6w.png 276w, https://miro.medium.com/max/1000/1*54R-DhBL1S-8p6-wwdA_6w.png 500w" alt="Image for post" width="750" height="1334" /></p>
</div>
</div>
</div>
</figure>
</div>
</div>
</div>
</div>
<div class="n p">
<div class="aj ak al am an gn ap w">
<p id="3833" class="ig ih gp ii b ij ja ik il im jb in io ip jc iq ir is jd it iu iv je iw ix iz cs ex" data-selectable-paragraph="">Diğer bir rutinimiz ise daha çok birbirimizi tanıma ve keyifli vakit geçirme üzerine kurulu. Kahoot üzerinden 15 sorudan oluşan yarışmalar yapıyoruz. Yarışmayı bir önceki hafta kim birinci olduysa o hazırlıyor. Hazırlayan kişi de kendi mizah anlayışı ve ilgi alanına göre soruları belirleme hakkına sahip. Bazen öyle anlar oluşuyor ki herkesin bileceğinden emin olduğu soruyu kimse bilemeyince yarışmayı hazırlayan kişi şaşkınlıkla bize bakıyor. Aynı zamanda Kahoot sayesinde birbirimizin sevdiği filmleri, kitapları ve karakterleri öğreniyoruz. Ekip arkadaşının favori film karakterini bildiğinde onu enerjisi düştüğü zaman ne ile kaldırabileceğini ve o an ne ile güldürebileceğini de biliyorsun.</p>
</div>
</div>
<div class="jl">
<div class="n p">
<div class="jy jz ka kb kc kd am ke an kf ap w">
<div class="jg jh ji jj jk n ar">
<figure class="fw jl kp el kh ki kj paragraph-image">
<div class="kk kl ah km w kn" tabindex="0" role="button">
<div class="jq s ah jr">
<div class="kq jt s">
<div class="ev jm gf fu fr jn w er jo jp"></div>
<p><img decoding="async" loading="lazy" class="qk ql gf fu fr jn w c" src="https://miro.medium.com/max/2494/1*UWVi9eAJebKMK_96nJsdeQ.jpeg" sizes="502px" srcset="https://miro.medium.com/max/552/1*UWVi9eAJebKMK_96nJsdeQ.jpeg 276w, https://miro.medium.com/max/1004/1*UWVi9eAJebKMK_96nJsdeQ.jpeg 502w" alt="Image for post" width="1247" height="701" /></p>
</div>
</div>
</div>
</figure>
<figure class="fw jl kr el kh ki kj paragraph-image">
<div class="kk kl ah km w kn" tabindex="0" role="button">
<div class="jq s ah jr">
<div class="ks jt s">
<div class="ev jm gf fu fr jn w er jo jp"></div>
<p><img decoding="async" loading="lazy" class="qk ql gf fu fr jn w c" src="https://miro.medium.com/max/2850/1*LcwGY2seNkBBYDwWedVjtA.jpeg" sizes="499px" srcset="https://miro.medium.com/max/552/1*LcwGY2seNkBBYDwWedVjtA.jpeg 276w, https://miro.medium.com/max/998/1*LcwGY2seNkBBYDwWedVjtA.jpeg 499w" alt="Image for post" width="1425" height="805" /></p>
</div>
</div>
</div>
</figure>
</div>
</div>
</div>
</div>
<div class="n p">
<div class="aj ak al am an gn ap w">
<p id="cd08" class="ig ih gp ii b ij ja ik il im jb in io ip jc iq ir is jd it iu iv je iw ix iz cs ex" data-selectable-paragraph="">Bütün bu rutinler bizi ileriye taşıyan alışkanlıklar oldu. Şimdi ekip arkadaşlarımızı daha iyi tanıyan ve sadece mesai saatlerinde değil sonrasında da ortak bir paydada buluşabilen insanlar olduk. Bu yüzden günlük hayatımızda kişisel motivasyonumuzu arttıran alışkanlıklara <strong class="ii cf"><em class="jx">“Bunu acaba ekiple beraber yapabilir miyiz? ” </em></strong>bakış açısı ile bakmaya başladık. Bugün ekip olarak en güzel yerdeyiz, bu bakış açısıyla yarın daha da iyi yerlerde olacağımıza eminim.</p>
</div>
</div>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Citizen Data Scientist Approach in AI Era</title>
		<link>https://www.caligo.com.tr/citizen-data-scientist-approach-in-ai-era/</link>
		
		<dc:creator><![CDATA[Deniz Konak]]></dc:creator>
		<pubDate>Fri, 25 Dec 2020 14:10:41 +0000</pubDate>
				<category><![CDATA[Advanced Analytics]]></category>
		<category><![CDATA[Citizen Data Scientist]]></category>
		<category><![CDATA[Data Science]]></category>
		<category><![CDATA[Knime]]></category>
		<guid isPermaLink="false">https://caligo.caligo.com.tr/?p=2847</guid>

					<description><![CDATA[Gartner defines Citizen Data Scientist as a person who develops/generates analytical models that use advanced analytics or predictive and prescriptive capabilities, but whose primary job function is outside the field of statistics and analytics. ( “Citizen Data Science Augments Data Discovery and Simplifies Data Science” ) In the light of Gartner’s definition, as a professional believing that Citizen Data Science approach makes Data [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><strong>Gartner</strong> defines <strong>Citizen Data Scientist</strong> as a person who develops/generates analytical models that use advanced analytics or predictive and prescriptive capabilities, but whose primary job function is outside the field of statistics and analytics. ( <a href="https://www.gartner.com/doc/3534848" target="_blank" rel="nofollow noopener">“Citizen Data Science Augments Data Discovery and Simplifies Data Science”</a> )</p>
<p>In the light of Gartner’s definition, as a professional believing that <strong>Citizen Data Science</strong> approach makes <strong>Data Science</strong> and <strong>Advanced Analytics</strong> concepts accessible to a wider audience, my aim in this article is to describe <strong>Citizen Data Scientist</strong> and the basics of this role with questions and examples from different domains.</p>
<p>Let’s start with the very first two questions:</p>
<h3><strong>What is Citizen Data Science?</strong></h3>
<p>The Citizen Data Science, which has more or less similar but many different definitions, is defined as &#8220;The discipline that fills the gap between the development / application of <strong>Advanced Analytics</strong> methods performed by the <strong>Expert Data Scientist</strong> role and the role of <strong>Self-Service Data Analytics</strong>&#8220;. Based on this definition, Citizen Data Science approach can be used even in larger organizations for discovering new data, carrying out routine and applicable analytical tasks and adopting analytical approaches by wider users.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQFutavD7FYKHQ/article-inline_image-shrink_1500_2232/0/1608887457199?e=1614816000&amp;v=beta&amp;t=5mQOtpuSmoUY-rueKpCFFp1hB1DimcJ0Rv0nXYp4V6c" alt="https://blogs.gartner.com/carlie-idoine/2018/05/13/citizen-data-scientists-and-why-they-matter/" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQFutavD7FYKHQ/article-inline_image-shrink_1500_2232/0/1608887457199?e=1614816000&amp;v=beta&amp;t=5mQOtpuSmoUY-rueKpCFFp1hB1DimcJ0Rv0nXYp4V6c" /></div>
<h3><strong>Who is Citizen Data Scientist?</strong></h3>
<p>With an alternative definition to Gartner’s, Citizen Data Scientists are <strong>powerful</strong> users who do not have deep math/stat and coding expertise but can adopt and internalize emerging technologies to meet the (medium to advanced) analytical needs required by their roles, eliminate dependencies on IT teams and enrich the process with their own deep business expertise.</p>
<p>For example, any earthquake researcher who aiming to understand earthquake behavior and tries to estimate a future effect can be named as also Citizen Data Scientist. Because she/he does not have to have a math/stat background and not responsible from new technical/theoretical developments but need to use Data Science approaches effectively to be able to analyze earthquakes with strong earthquake domain knowledge.</p>
<h3><strong>The Rise of Citizen Data Scientist</strong></h3>
<p>The main idea behind the rise of Citizen Data Scientist role can actually be explained with the most basic <strong>supply-demand</strong> principle of the economy. Since we are in <strong>AI Era</strong> and the volumes and coverage of <strong>Data</strong> are increasing day-by-day and so directly the demand of Data Scientists who can gather info and value form data is also increasing. But on the other hand, the supply of Data Scientist is not increasing as much.  This demand-supply shortage led professionals question about their actual needs, and search for new alternative solutions.</p>
<p>This questioning brings Citizen Data Scientist and effective <strong>Citizen Data Science platforms</strong> on table, such as <strong>KNIME</strong>. This is already the natural consequence of developing technology and AI. Those platforms direct users with end-to-end <strong>automated</strong> solutions and enables Citizen Data Scientists to use them for leveraging value from data for multiple purposes. On the other hand, the use of such Citizen Data Science platforms bring efficiency and accelerate the end-to-end Data Science process with their pre-defined functionalities.</p>
<p><strong>Citizen Data Science in Different Domains</strong></p>
<p>As an alternative to earthquake researcher case, I would like to mention two different cases from different industries that Citizen Data Science ease the extract gain from data.</p>
<p><strong>Case 1:</strong> Marketing in a Bank is one of the most important areas for use of Data Science tools to gain most proper information to identify true customer and manage campaigns most effectively. So, a team of marketing analysts has to use several advanced analytics methods and ML model tools for daily tasks and projects. But they do not have to be expert data scientists coming from math/stat background, they only need to use these technology tools combining with their marketing expertise. That brings the Citizen Data Scientists into the game, powerful Data Science users with strong marketing experience.</p>
<p><strong>Case 2:</strong> HR department of an Automotive Firm having more than 300K employees worldwide needs to adopt analytical tools to correctly estimate employee performances and advanced analytics for 4K positions. Specialists working at this department have deep business understanding on the performance measurement and position requirements. Using automated Data Science technologies, HR specialists with a Citizen Data Scientist role can run required analyses and manage advanced analytics processes to measure the performance of quite a huge number of employees.</p>
<p>In the Era of AI, everything is becoming more and more automated day-by-day. Nowadays, being perfect only at coding becomes less meaningful, most of the programs have their own automatic coding extensions like Python’s Jupyter Notebook (Text2Code ). Therefore trying to understand technical and theoretical basics behind your needs and using technology is just enough to do your job effectively.</p>
<p>To sum up, I tried to explain the importance of Citizen Data Scientists for different domains. There are different platforms aiming to develop the idea of Automation in Data Science. I am using KNIME and exploring its many capabilities and still surprising from time-to-time when I see what it can do. You can give KNIME a try or any other one, but you should try at least one of such platforms.</p>
<p>I am also planning to show example case stories for different domains and different tasks at my future posts.</p>
<p>I hope you enjoyed reading this post!</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Neden KNIME Server&#8217;a ihtiyaç duyuyoruz ?</title>
		<link>https://www.caligo.com.tr/neden-knime-servera-ihtiyac-duyuyoruz/</link>
		
		<dc:creator><![CDATA[Volkan Çamaş]]></dc:creator>
		<pubDate>Thu, 10 Dec 2020 12:13:18 +0000</pubDate>
				<category><![CDATA[Advanced Analytics]]></category>
		<category><![CDATA[Knime]]></category>
		<category><![CDATA[Knime Certification]]></category>
		<category><![CDATA[Knime Server]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<guid isPermaLink="false">https://caligo.caligo.com.tr/?p=2713</guid>

					<description><![CDATA[Daha önceki yazılarımda KNIME ile ilgili ürünün kullanım alanları ve sertifikasyon sürecinden bahsetmiştim. Çalıştığımız kurumsal firmalarda ne zaman bir ürün kullanımı gündeme gelse ücretsiz bile olsa öncelikle governance, güvenlik,performans ve yetkilendirme konuları ön plana çıkmaktadır. Bu kadar kapsamlı ve çeşitli entegrasyonlar sağlayabildiğiniz bir ürün olunca da haliyle sadece desktop bir uygulama ile bu süreçleri yönetmek [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Daha önceki yazılarımda KNIME ile ilgili ürünün kullanım alanları ve sertifikasyon sürecinden bahsetmiştim. Çalıştığımız kurumsal firmalarda ne zaman bir ürün kullanımı gündeme gelse ücretsiz bile olsa öncelikle governance, güvenlik,performans ve yetkilendirme konuları ön plana çıkmaktadır. Bu kadar kapsamlı ve çeşitli entegrasyonlar sağlayabildiğiniz bir ürün olunca da haliyle sadece desktop bir uygulama ile bu süreçleri yönetmek mümkün mü detaylarıyla incelemek istedim.</p>
<p><strong>KNIME Analytics Platform</strong>, ücretsiz olarak indirilebilen bir desktop uygulamasıdır. Veri bilimi başlığı altında yer alan veri hazırlama, modelleme ve görselleştirme süreçlerini akış olarak tasarlayabileceğiniz bir platformdur.</p>
<p><strong>KNIME Server, </strong>tasarlanan akışların ortak bir sunucuya taşınması ile birlikte yönetimi,izlenmesi ve başka uygulamalardan verinin sorgulanmasını amaçlamaktadır.</p>
<p>Genelde bu tip yazılım ürünlerinde bazı özelliklerin kısıtlı olduğunu görürüz ve kurumsal bir uygulamada kullanma ihtiyacınız olduğunda en gerekli özellikleri kullanılamadığından sizi yatırım yapmaya mecbur bırakır. Ancak <strong>KNIME Analytics Platform</strong> kullanırken böyle bir deneyim yaşamıyorsunuz, tüm özellikler açık ve herhangi bir son kullanım tarihi bulunmuyor. KNIME gelir modelini sadece eğitim, danışmanlık ve <strong>KNIME Serve</strong>r lisanslaması olarak konumlandırmış.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQGK8Am-OyIfcw/article-inline_image-shrink_1000_1488/0/1607199683617?e=1614211200&amp;v=beta&amp;t=t_awHOJaAvZQ4j1ObbEQeB1L_SZW6HXAE40AicQbGPM" alt="No alt text provided for this image" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQGK8Am-OyIfcw/article-inline_image-shrink_1000_1488/0/1607199683617?e=1614211200&amp;v=beta&amp;t=t_awHOJaAvZQ4j1ObbEQeB1L_SZW6HXAE40AicQbGPM" /></div>
<p>Aşağıdaki maddelerde de neden Analytics Platform kullanırken neden Server yatırımı yapmak gerektiği konusunda detaylı yorumlarıma yer verdim.</p>
<p><strong>1- Takım Çalışması</strong></p>
<p>KNIME Server ile birlikte hayatımızda değişen ilk şey takım çalışması/iş birliği olarak belirtiliyor. Server ile birlikte aslında klasik kurumsal uygulamalardaki paylaşım süreçleri hizmet olarak sunuluyor. Yani burada birim veya proje bazlı oluşturduğunuz akışlarınız artık kişisel bilgisayarlarınız yerine bir sunucuda tutulur hale gelmiş oluyor. (Yazılımcılar için TFS, iş birimleri içinse network sharing folder gibi düşünebiliriz.) Bu sayede kurumunuzdaki işler birimler arası paylaşıma mümkün hale gelmiş oluyor. Ayrıca bir sunucu üzerinde süreçleri yönetmenin yedekleme ve versiyonlama açısından da daha sağlıklı olacağı unutulmamalıdır.</p>
<p><strong>2- Otomatizasyon</strong></p>
<p>Veri hazırlığı ve raporlama süreçlerinde otomatikleştirme(scheduling) konusu olmazsa olmaz diyebiliriz. KNIME kullanıyorsanız ve tasarlamış olduğunuz akışınızın belirli periyotlarda çalışmasını bekliyorsanız bunun farklı opsiyonları olsa da ben en yaygın 2 yöntemi paylaşacağım.</p>
<p>Birincisi, KNIME web sitesindeki <a href="https://www.knime.com/faq#q12" target="_blank" rel="nofollow noopener">sıkça sorulan sorular</a> ve <a href="https://stackoverflow.com/questions/55101024/knime-windows-scheduler-task-without-server" target="_blank" rel="nofollow noopener">stackoverflow </a>aramalarında denk geldiğim bir yöntem. Windows task scheduler kullanarak tasarlamış olduğunuz akışınızı tanımlı bir zamanda tekrar tekrar çalıştırabilirsiniz. Bu yöntemi ücretsiz ve herhangi bir sunucuya ihtiyaç duymadan uygulayabilirsiniz. Burada sadece her gün çalışsın gibi bir beklentiniz var ise kendi bilgisayarınızın da o saatler çalıştığından emin olmalısınız !</p>
<pre spellcheck="false">knime.exe -consoleLog -noexit -nosplash -application org.knime.product.KNIME_BATCH_APPLICATION -workflowDir="workspace/Knime_project"
</pre>
<p>İkinci yöntem ise KNIME server satın aldığınızda web portal aracılığı ile sunucuya yüklediğiniz akışlarınızı akış adı ve periyot tanımlayarak hızlı ve kolay olarak uygulayabilirsiniz.</p>
<p>İlk yöntem biraz daha araştırma veya eğitim amaçlı daha bireysel bir kullanım için konumlandırılabilir. Biraz daha merkezi bir uygulama ve kompleks yapılar kurgulamaya ihtiyaç duyduğunuzda ise yönetim anlamındaki ihtiyaçlar ve operasyonel risklerin azaltılması için önerilen yöntem KNIME server üzerinde bu süreci yönetmek olacaktır.</p>
<p><strong>3- Görselleştirme</strong></p>
<p>Veri ile ilgili yapılan her projede günün sonunda görsel çıktılara ulaşmak yapılan işin okunurluğunu ve izlenmesini sağlamaktadır. Benim kişisel olarak beklentim klasik grafikleri çizsin yeterken, inceledikçe aslında iyi seviyede çıktılara kolayca ulaşmanın mümkün olduğunu gördüm. Ayrıca kod seviyesinde de size Javascript ve CSS olarak müdahale ettirdiğinden dolayı yapacağınız işin sınırı size kalmış denebilir.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQEQApCzR1xbLA/article-inline_image-shrink_1000_1488/0/1605545946209?e=1614211200&amp;v=beta&amp;t=1piP5qYoQSa287YnLEnS-dYuBtdw6man3xT-SFOCbIs" alt="No alt text provided for this image" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQEQApCzR1xbLA/article-inline_image-shrink_1000_1488/0/1605545946209?e=1614211200&amp;v=beta&amp;t=1piP5qYoQSa287YnLEnS-dYuBtdw6man3xT-SFOCbIs" /></div>
<p>Server olmadan da yukarıdaki çıktılara benzer grafikleri kendi bilgisayarınızda oluşturabilirsiniz. Ancak paylaşım konusunda herkes günlük/haftalık periyotlarla yenilen grafiklere bir portalden erişsin beklentiniz olursa sunucuya ihtiyaç duyacaksınız. Diğer türlü bu çıktıları alıp e-posta yoluyla göndermek de bir tercih olabilir.</p>
<p><strong>4- Performans</strong></p>
<p>Performans, neden bir server yatırımı yapalım konusunda bence en güçlü nedenlerden biri. Verilerinizi kurumunuzun veritabanlarından erişerek aldınız ancak analitik ihtiyaçlarınıza özel Knime komponentleri kullanma ihtiyacınız var. Verilerinizin boyutları da milyonlar seviyesine ulaşıyorsa burada kendi bilgisayarınıza büyük iş düşüyor, çoğu zamanda memory hataları almanıza neden olacaktır. Yani özetle hem kompleks hesaplamalar yapacağım hem de kullanmış olduğunuz veri seti kişisel bir bilgisayarda işlemek için çok büyük boyutlarda diyorsanız, server yatırımı yapmanız performans gibi bir kaygıdan sizi kurtaracaktır. Hele ki hızlı cevap almak istediğiniz ve anlık çalışsın diye düşündüğünüz ihtiyaçlarınız için konumlandırmak istiyorsanız, sunucu olmazsa olmaz diyebilirim. (Örn: Fraud Detection, Recommendation Engine vb.)</p>
<p><strong>5- Entegrasyon</strong></p>
<p>Sunucu yatırımı yapmak için en önemli nedenlerden biri de entegrasyon diyebiliriz. KNIME Server&#8217;a yüklediğiniz akışlarınıza artık REST API ile erişebilir hale geliyorsunuz. Bu özellik size farklı uygulamalar ile entegrasyon kurabilmenizi ve tasarladığınız süreçleri dış dünyaya açabilmenizi sağlıyor. Yukarıda örnek verdiğim Fraud Detection için bir model kurdunuz ve bunu transaction anında uygulamanızda kullanmak istiyorsunuz. Transaction anında ilgili Knime akışını tetikleyip işlemin fraud olup olmadığı bilgisini model sonucunuza göre sorgulama yapabilirsiniz.</p>
<p>Ayrıca sunucudaki bir çok farklı konuda da dışarıdan API ile erişim sağlayarak çözüm bulabilirsiniz. Örnek olarak</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQEoyomF32yoyA/article-inline_image-shrink_1500_2232/0/1606038742505?e=1614211200&amp;v=beta&amp;t=wRGBUKEL4gorazs4O5PGw6dXZNSYJQcwK-DjxrEv9W4" alt="No alt text provided for this image" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQEoyomF32yoyA/article-inline_image-shrink_1500_2232/0/1606038742505?e=1614211200&amp;v=beta&amp;t=wRGBUKEL4gorazs4O5PGw6dXZNSYJQcwK-DjxrEv9W4" /></div>
<p><strong>6- İzleme ve Yönetim</strong></p>
<p>Ürün üzerinde farklı süreçler tasarlayıp genel kullanıma yaygınlaştırılmak istendiğinde hem izleme hem yönetim iki önemli madde diyebiliriz. İzleme altında sunucuda çalışan işlerin durumunu, sunucunun sağlığını izlenmesi gibi konular önem arz etmeye başlıyor. Yönetim başlığı altında ise ilk olarak yetkilendirme konusu hayatımıza giriyor. Çalışan işleri kimler tasarlayabilir,görebilir ya da çalıştırabilir yetkilerinin düzenlenmesi, farklı ekipler arasındaki ortak süreçlerin tasarlanması gibi ihtiyaçlar da yetkilendirme yetenekleri ile süreçlerinizi yönetebilirsiniz.</p>
<p>Bir sunucu kurulumu yaptığınızda da KNIME tarafından hazırlanmış Admin akışları default tanımlı olarak sunucuda yer almaktadır.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQGx_pXZYRJe2g/article-inline_image-shrink_1000_1488/0/1606038393941?e=1614211200&amp;v=beta&amp;t=Azac0-MYsUch53V5v5P5WL7CLrNZFNNwCUr96ra52qo" alt="No alt text provided for this image" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQGx_pXZYRJe2g/article-inline_image-shrink_1000_1488/0/1606038393941?e=1614211200&amp;v=beta&amp;t=Azac0-MYsUch53V5v5P5WL7CLrNZFNNwCUr96ra52qo" /></div>
<p><strong>7- Metadata Analizi</strong></p>
<p>Genelde bu tip ürünlerde kullanıcıların yaptıkları çalışmalar repository veritabanlarında tutulmaktadır. KNIME alışılanın aksine hazırladığınız her akış için bir knwf adında bir dosyada oluşturmaktadır ve herhangi bir databasede çalışamlarınızın detaylarını kaydetmemektedir. Bu dosyalar yine bir akış içerisinde XML formatına çevrilerek, workflowlar içerisinde kullanılan database objeleri nelerdir, hangi nodelar kullanılmış, çıktı olarak sonuçlar nelerdir gibi analizler çıkarmak mümkün hale gelmektedir. Ancak herkesin kişisel bilgisayarında Analytics Platform kullandığı bir senaryo düşünürsek böyle bir analizi yapmak mümkün olamayacaktı. Bu konuyla ilgili araştırma yaparken KNIME Hub&#8217;da denk geldiğim iki örneğe de aşağıda yer vermek istedim.</p>
<h3><a href="https://hub.knime.com/temesgen-dadi/spaces/Public/latest/01_Data_Lineage_via_KNIME_WebPortal" target="_blank" rel="nofollow noopener"><strong>Data Lineage via KNIME WebPortal</strong></a></h3>
<h3><a href="https://hub.knime.com/navinjadhav/spaces/Public/latest/Collect_and_display_Workflow_Summaries_using_KNIME_Server" target="_blank" rel="nofollow noopener"><strong>Collect Workflow Information from KNIME Server REST API</strong></a></h3>
<p><strong>Özet</strong></p>
<p>Aslında yukarıda saydığım maddeler &#8220;enterprise&#8221; ihtiyaçlar ortaya çıktığında akla ilk gelen konular diyebiliriz. Burada ürünün öne çıkan özelliği, herhangi bir satın alma yapmadan ürünün ihtiyaçlarınıza cevap verip veremeyeceğini test edebileceğiniz bir ortam sağlamasıdır. Kendi deneyimlerim ve araştırmalarım sonucunda, desktop uygulaması olan Analytics Platform bireysel olarak inceleme ve analizleriniz için yeterli olacaktır ama daha yaygın bir kullanım planlıyorsanız KNIME Server almak en akılcı karar olacaktır.</p>
<p>KNIME üzerinde farklı denemeler yapmaya devam ediyorum, merak edenler olursa seve seve destek olabilirim. Ayrıca <a href="https://forum.knime.com/" target="_blank" rel="nofollow noopener">KNIME Forum</a>&#8216;a da yazarsanız büyük ihtimalle aynı gün probleminize ya da sorunuza cevap alabilirsiniz. Geçen haftalarda yapılan &#8220;Fall Summit 2020&#8221; de Level-2 sertifikasını da almaya hak kazandım. Sınav ile ilgili değerlendirmelerimi de ayrıca yazmayı planlıyorum.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Good at Theory? We are The King of the Jungle</title>
		<link>https://www.caligo.com.tr/good-at-theory-we-are-the-king-of-the-jungle/</link>
		
		<dc:creator><![CDATA[Kerem Kabil]]></dc:creator>
		<pubDate>Thu, 03 Dec 2020 13:05:12 +0000</pubDate>
				<category><![CDATA[Advanced Analytics]]></category>
		<category><![CDATA[Knime]]></category>
		<category><![CDATA[Knime Server]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<guid isPermaLink="false">https://caligo.caligo.com.tr/?p=2737</guid>

					<description><![CDATA[In my first post about KNIME, &#8220;How to Set Up an Oracle Connection&#8221; , I mentioned that the connection between KNIME and an Oracle Database. Now, we will take a glance at a simple classification workflow in KNIME. Firstly, I would like to briefly talk about one of the advantages of KNIME provides. Whatever analytical tool we [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>In my first post about KNIME, <em>&#8220;How to Set Up an Oracle Connection&#8221; , </em>I mentioned that the connection between KNIME and an Oracle Database. Now, we will take a glance at a simple classification workflow in KNIME.</p>
<p>Firstly, I would like to briefly talk about one of the advantages of KNIME provides.</p>
<p>Whatever analytical tool we use like Python, R, SQL etc., we need to use some coding things to carry out below general analytics steps. That means, no matter how good our theoretical knowledge is, it is quite difficult to do anything without coding skills. <strong><u>I have no intention to denigrate coding, on the contrary it is a crucial thing in data world and undoubtedly it will be</u>.</strong> What I want to say is that coding can sometimes be an obstacle to one with high theoretical knowledge. In KNIME, our dependency on coding is <u>reduced</u>. That&#8217; s the correct sentence. Generally, we can build analytical processes without any coding thing. That means, if we have a good theoretical knowledge about analytics, we are the king of the jungle!</p>
<p>Let&#8217; s see the simple workflow shown below to prove that dependency on coding is reduced.</p>
<p>Before building a such workflow, we need to take a look at the following generalized steps,</p>
<ul>
<li>Data Collecting and Understanding</li>
<li>Data Preprocessing</li>
<li>Modelling</li>
<li>Evaluating the Model</li>
</ul>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C5612AQH97FYwTdXYzQ/article-inline_image-shrink_1500_2232/0/1606840867820?e=1614211200&amp;v=beta&amp;t=S6JlAodfyXY9NxsHsAEqxq9njK2WywQ08pqAtN18_oY" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C5612AQH97FYwTdXYzQ/article-inline_image-shrink_1500_2232/0/1606840867820?e=1614211200&amp;v=beta&amp;t=S6JlAodfyXY9NxsHsAEqxq9njK2WywQ08pqAtN18_oY" /></div>
<p>As we see above, we can easily built a classification model. KNIME can perform all processes with its nodes, all we need to do configuring the nodes. It will be quite easy, if we have a good theoretical knowledge.</p>
<p>Let&#8217; s take a closer look at these four generalized analtyics steps in KNIME.</p>
<ul>
<li><strong>Data Collecting and Understanding</strong></li>
</ul>
<p>Each analytics process starts collecting data. Our data can be stored in different sources like database, .csv, .xls, .xml etc. To handle this, KNIME has a corresponding node for each data source to collect data. Some of these nodes are Oracle/ MySQL/ Postgre Connector, CSV Reader, Excel Reader, XML Reader respectively. As each node has its own configuration node, we can easily collect data by using this specialized configurations.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-middle"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C5612AQFoPEK7--RvKw/article-inline_image-shrink_1000_1488/0/1606840910356?e=1614211200&amp;v=beta&amp;t=Tlb2VKXyMcSCLsWJUXAl4JuVvceapnCfgYEbfJbp30Y" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C5612AQFoPEK7--RvKw/article-inline_image-shrink_1000_1488/0/1606840910356?e=1614211200&amp;v=beta&amp;t=Tlb2VKXyMcSCLsWJUXAl4JuVvceapnCfgYEbfJbp30Y" /></div>
<p>The image shown above shows our data collecting and understanding part for our sample. As our data is stored in an oracle database, we&#8217; ve used Oracle Connector node to connect the data source. DB Query Reader has been used for retrieving data with a SQL query.</p>
<p>For data understanding, we&#8217; ve used Data Explorer node. With this node, we can take a rapid glance at our data i.e we can see the types of attributes, how many missing values the data contains and distribution of each attributes etc.</p>
<ul>
<li><strong>Data Preprocessing</strong></li>
</ul>
<p>In our sample workflow, we don&#8217;t need to perform various preprocessing steps. For this data, all we need to do converting double typed attributes into integer and filling missing values. So, we&#8217; ve used Double to Int and Missing Value nodes. Then, we&#8217; ve used Partitioning node to perform splitting data into train and test set.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-middle"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQGIGCE_niC6fA/article-inline_image-shrink_1000_1488/0/1606800547457?e=1614211200&amp;v=beta&amp;t=eo_fZ21rM5fLYGbGgYlNLTPlyyCV86TmZ1uXv5yyDos" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQGIGCE_niC6fA/article-inline_image-shrink_1000_1488/0/1606800547457?e=1614211200&amp;v=beta&amp;t=eo_fZ21rM5fLYGbGgYlNLTPlyyCV86TmZ1uXv5yyDos" /></div>
<p>KNIME has various nodes for preprocessing like One To Many, String Manipulation, String to Number, Groupby etc. There are almost every node that may be needed for preprocessing. In parallel, KNIME has also another node for partitioning called X-Partitioner comes with X-Aggregator.</p>
<ul>
<li><strong>Modelling</strong></li>
</ul>
<p>In KNIME, all algorithms represents different nodes like any other operations. For algorithms under the predictive analytics (Logistic Regression, SVM, &#8230;) roof represents two nodes, Learner and Predictor. We train our model with Learner node. Then, we test our model with Predictor node by using train data comes from output of Partitioning node.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-middle"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQHGrS6Ao7YGXg/article-inline_image-shrink_1000_1488/0/1606800581263?e=1614211200&amp;v=beta&amp;t=c61VLmJ99bU1RWjSG2ogoS8QfkXPlryAgTloSF-wKkw" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQHGrS6Ao7YGXg/article-inline_image-shrink_1000_1488/0/1606800581263?e=1614211200&amp;v=beta&amp;t=c61VLmJ99bU1RWjSG2ogoS8QfkXPlryAgTloSF-wKkw" /></div>
<p>In our sample workflow, we&#8217; ve used simple Decision Tree algorithms, and one can see this predictive algorithm represents with two different nodes shown above.</p>
<ul>
<li><strong>Evaluating the Model</strong></li>
</ul>
<p>At the end, builded model needs to be evaluated. To evaluate a model, Scorer nodes can be used. With this node, we can evaluate basic performance metrics (accuracy, recall, precision, Cohen&#8217; s Kappa) of the corresponding model. Scorer node has two different types, Scorer and Scorer (JavaScript). While Scorer (JavaScript) offers an interactive output, Scorer offers simpler output, that&#8217; s the difference between these two nodes.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-middle"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQEr-tRqGSwyiQ/article-inline_image-shrink_1000_1488/0/1606800599537?e=1614211200&amp;v=beta&amp;t=h8iQEcJOUEyv6XU2f6icu87Ncx3BmOXGI9nkpcmnmMc" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQEr-tRqGSwyiQ/article-inline_image-shrink_1000_1488/0/1606800599537?e=1614211200&amp;v=beta&amp;t=h8iQEcJOUEyv6XU2f6icu87Ncx3BmOXGI9nkpcmnmMc" /></div>
<p>One thing about Scorer nodes, these nodes can perform on a model with <u>categorical target</u>. If we have a model with numerical target like Regression, we need to use Numeric Scorer node.</p>
<p>So far, thanks to the advantages of KNIME provides, we&#8217; ve seen that we can easily built an analytical model without any coding. Althought we are not dependent on coding here, sometimes it is necessary to use it. In case we need to use it, KNIME also handles this quite easily 🙂</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>KNIME Fall Summit Ardından</title>
		<link>https://www.caligo.com.tr/knime-fall-summit-ardindan/</link>
		
		<dc:creator><![CDATA[Deniz Konak]]></dc:creator>
		<pubDate>Wed, 02 Dec 2020 13:01:32 +0000</pubDate>
				<category><![CDATA[Advanced Analytics]]></category>
		<category><![CDATA[Knime]]></category>
		<category><![CDATA[Knime Fall Summit]]></category>
		<category><![CDATA[Self Service Analytics]]></category>
		<guid isPermaLink="false">https://caligo.caligo.com.tr/?p=2734</guid>

					<description><![CDATA[16 &#8211; 20 Kasım tarihlerinde gerçekleşen KNIME Fall Summit ardından organizasyona ve içeriklere dair düşüncelerimi sizlerle paylaşmak istedim. İlk 3 günün farklı seviye eğitimler ve sınavlarla, 3. günden itibaren de farklı coğrafya ve sektörlerden KNIME kullanıcılarının başarı hikayelerini anlattıkları oturumlarla dolu 5 günlük bir organizasyon deneyimledik. Bunların yanı sıra, KNIME Time başlıklı, Analitik Platform ve Server ürünlerindeki en yeni gelişmelerin ve kullanım senaryolarının anlatıldığı [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><strong>16 &#8211; 20 Kasım</strong> tarihlerinde gerçekleşen <strong>KNIME Fall Summi</strong>t ardından organizasyona ve içeriklere dair düşüncelerimi sizlerle paylaşmak istedim.</p>
<p>İlk 3 günün farklı seviye eğitimler ve sınavlarla, 3. günden itibaren de farklı coğrafya ve sektörlerden <strong>KNIME kullanıcılarının başarı hikayelerini</strong> anlattıkları oturumlarla dolu 5 günlük bir organizasyon deneyimledik. Bunların yanı sıra, <strong>KNIME Time</strong> başlıklı, <strong>Analitik Platform ve Server</strong> ürünlerindeki en yeni gelişmelerin ve kullanım senaryolarının anlatıldığı oturumlar da oldukça ilgi çekici ve faydalı idi.</p>
<p>Daha kolay anlatabilmek için Summit değerlendirmemi 3 başlık altında ilerleteceğim;</p>
<p><em>1-     KNIME Trainings &amp; Certification</em></p>
<p><em>2-     Use Case &amp; Success Stories</em></p>
<p><em>3-     KNIME Time</em></p>
<p>Tüm başlıklar için keyifli okumalar dilerim!</p>
<p>&nbsp;</p>
<h3><strong>1-     KNIME Trainings &amp; Certification</strong></h3>
<p>Öncelikle bu bizim <strong>CALIGO</strong> olarak <strong>KNIME partner</strong>i olmamız sonrasında katıldığımız ilk KNIME Summit idi. Bu nedenle de eğitimleri ve sertifika sınav oturumlarını ayrı bir heyecanla bekledik.</p>
<p>Summit kapsamında KNIME tarafından planlanan <strong>L1, L2, L3 ve L4</strong> olmak üzere her seviyede ve <strong>Data Science</strong> döngüsünün farklı aşamalarına odaklanmış 20’ye yakın eğitim gerçekleştirildi. Biz <strong>CALIGO</strong> <strong>ekibi</strong> olarak öncesinde de uzun süredir üzerinde çalıştığımız bu eğitimlerin pek çoğuna katılarak sonunda yapılan sınavda sertifikalarımızı aldık!</p>
<p>Eğitime katılan her birimizin istisnasız ilk yaptığı yorum, eğitim süresince sorulan her soruya, takılınan her noktaya çok çok kısa sürede ve detaylı bir yanıt aldığımız oldu. Tüm bu süreçte eğitmen de dahil tüm KNIME ekibinin eğitimi eksiksiz aktarmak ve anlaşılmayan nokta bırakmamak konusundaki eforu inanılmazdı. Buna dayanarak şunu söyleyebilirim ki, <strong>daha önce KNIME kullanıcısı olmasanız dahi eğitimler size tüm kapsamı özümsetmek konusunda amacına tam olarak hizmet ediyordu.</strong></p>
<h3><strong>2-     Use Cases &amp; Success Stories</strong></h3>
<p>KNIME kendisini Data Science disiplininde iki temel faz olan geliştirme ve üretim aşamaları arasındaki geçişi sağlayan bir köprü platform olarak konumlandırıyor. Diğer bir ifade ile modellerin öğrenmesi ve üretim ortamına alınması aşamaları arasında bir kopukluk yaşamadan, Data Science uygulamalarınızı uygulamaya geçirebilir ve sonrasında izleme, yeniden geliştirme gibi süreçleri yine KNIME üzerinde yapabilirsiniz. Summit süresince üzerinde konuşulan başarı hikayeleri KNIME’ın sağladığı bu özellikler bütününün tümünün ya da belirli aşamalarının benimsenmesi ve projelerde hayata geçirilmesi hakkındaydı. Benim en çok ilgilimi çeken 2 başlığı paylaşmak istiyorum. Bu başlıklar dışındaki tüm oturumların videolarına yazının en altına eklediğim linkten ulaşabilirsiniz.</p>
<p><strong><em>Customer Data Scoring &amp; Data Privacy Using KNIME WebPortal, Speaker: James Grimes (Truata), Moderator: Cynthia Padilla (KNIME)</em></strong></p>
<p>Sıfırdan kod yazmalarına gerek olmayacak bir platform arayışı ile KNIME ile çalışmaya başlayan Dublin merkezli Truata, müşterilerine sunduğu gizlilik temelli skorlama hizmeti için tüm süreçlerinde KNIME Server kullanımlarını ve karşılaşmayı bekledikleri zorlukları nasıl çözdüklerini bu oturumda anlatıyor. Birden çok müşteriye de hizmet verilen bu çözüm benim kişisel ve profesyonel olarak da ekstra ilgimi çekti. Skorlama süreçlerini yeniden değerlendirmek ve daha efektif hala getirmek isteyen ekipler için bu oturumu dinlemelerini muhakkak öneririm.</p>
<p><strong><em>Integrated Deployment, Speaker: Zehra Hussein (Kasasa), Moderator: Phil Winters (KNIME)</em></strong></p>
<p>KNIME ile nasıl tanıştıklarından başlayarak; ML flowlarının geliştirilmesi, üretime alınması ve düzenli iyileştirilebilmesi amacı ile KNIME kullanım deneyimlerini anlatan Kasasa, bu sayede küçük bir organizasyon olarak megabankalar ile nasıl rekabet edebildiklerine değiniyor. Daha küçük bütçelerle uçtan uca teknoloji çözümlerine dair fikir arayanlar bu videoyu izlemeli.</p>
<p>&nbsp;</p>
<h3><strong>3-     KNIME Time</strong></h3>
<p>KNIME, Server ürünü ücretli ama bir desktop uygulaması olan Analtik Platform kullanımı ücretsiz olan bir yazılım. Ve bu ücretsiz platformda kısıtlanmış herhangi bir özelliği bulunmuyor. Bunun yanında, çok çok gelişmiş ve aradığınız her soruya cevap bulabildiğiniz bir KNIME ekosistemi var. Bu ekosistem, KNIME Hub, Forum, Extensions ve ücretsiz eğitimler gibi pek çok bileşene sahip bir web platformu üzerinden sunuluyor.</p>
<p>Summit kapsamında yapılan KNIME Time oturumları da tüm bu ekosistem dahilinde var olan bileşenlerdeki son gelişmeleri bizim gibi kullanıcılara anlatmak ve KNIME’ın daha etkin kullanılmasına fayda sağlamak amacına hizmet ediyordu. Bu kapsamda hem analitik platform hem de server için nelerin yeni olduğu, neler üzerinde çalışıldığı ve tüm bu yeniliklere nasıl ulaşabileceğimiz konusunda yol gösterici oldu. Size de yol gösterebileceğini düşündüğünüz tüm KNIME Time oturumlarına hemen alttaki linkten ulaşabilirsiniz. (KNIME Time kayıtları biraz sayfanın aşağılarına doğru, vazgeçmeden sayfada ilerleyin)</p>
<p>Sevgiler,</p>
<p><strong><em>Deniz</em></strong></p>
<p><strong><u>KNIME Fall Summit:</u></strong></p>
<p><a href="https://www.knime.com/knime-fall-summit-2020?utm_source=pardot&amp;utm_medium=email&amp;utm_term=&amp;utm_content=&amp;utm_campaign=Summit-Fall-2020" target="_blank" rel="nofollow noopener">https://www.knime.com/knime-fall-summit-2020?utm_source=pardot&amp;utm_medium=email&amp;utm_term=&amp;utm_content=&amp;utm_campaign=Summit-Fall-2020</a></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>KNIME ile &#8220;Citizen Data Scientist&#8221;​ Yaklaşımına İlk Adım</title>
		<link>https://www.caligo.com.tr/knime-ile-citizen-data-scientist%e2%80%8b-yaklasimina-ilk-adim/</link>
		
		<dc:creator><![CDATA[Deniz Konak]]></dc:creator>
		<pubDate>Mon, 02 Nov 2020 12:56:55 +0000</pubDate>
				<category><![CDATA[Genel]]></category>
		<category><![CDATA[Advanced Analytics]]></category>
		<category><![CDATA[Citizen Data Scientist]]></category>
		<category><![CDATA[Data Science]]></category>
		<category><![CDATA[Knime]]></category>
		<category><![CDATA[Knime Server]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<guid isPermaLink="false">https://caligo.caligo.com.tr/?p=2730</guid>

					<description><![CDATA[ Artificial Intelligence (Yapay Zeka), Machine Learning (Makine Öğrenmesi) ve Data Science (Veri Bilimi) başlıkları aslında çok yeni olmasalar da hızla gelişen teknoloji ve buna bağlı olarak artan veri büyüklükleri ile son yılların en trend başlıklarından oldular. Birbirleriyle farklı noktalarda kesişimleri olan bu kavramlar temel olarak Data Science disiplini ile Advanced Analytics çerçevesinde değerlendirilen uygulamalara temel oluşturuyorlar. Uzun yıllardır hem profesyonel hayatta hem de [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><strong><em> Artificial Intelligence (Yapay Zeka),</em></strong> <strong><em>Machine Learning (Makine Öğrenmesi)</em></strong> ve <strong><em>Data Science (Veri Bilimi)</em></strong> başlıkları aslında çok yeni olmasalar da hızla gelişen teknoloji ve buna bağlı olarak artan veri büyüklükleri ile son yılların en trend başlıklarından oldular. Birbirleriyle farklı noktalarda kesişimleri olan bu kavramlar temel olarak <strong><em>Data Science</em></strong> disiplini ile <strong><em>Advanced Analytics</em></strong> çerçevesinde değerlendirilen uygulamalara temel oluşturuyorlar.</p>
<p>Uzun yıllardır hem profesyonel hayatta hem de öncesinde akademik ve öğrencilik hayatında <strong>SAS, MATLAB, Gauss, SPSS, R</strong> ve <strong>Python</strong> gibi kod ve node bazlı farklı programları kullanarak pek çok model geliştirmiş ve bu disiplini içselleştirmiş bir uzman gözünden bir yazı dizisi kaleme almak istedim. Gündeme getirmek istediğim konulardan biri, Data Science denilince akla gelen satırlarca kodlama gereksinimi artık gerçekten zorunlu mu? Yoksa artık kendine <strong>Citizen Data Scientist</strong> yaklaşımını benimsemiş Analitik Platformlar bu dünyada yeni bir akım mı yaratıyorlar?</p>
<p>Bu yazı dizininin ilk bölümünde aktif olarak R ve Python tecrübelerim sonrası, <strong>KNIME Analitik Platformu </strong>ile tanışma sürecimdeki ilk yorumlarımı ve karar noktalarımı paylaşmak istiyorum.</p>
<p>Pek çok farklı analitik programlama dili ve model geliştirme tecrübesi sonrası iş bilgisinin en az teknik/teknolojik bilgi kadar önemli olduğuna inanan biri olarak neden KNIME kullanmalıyım? KNIME öğrenme algoritmalarının uygulanması ve süreçlerin tasarlanması noktalarında nasıl konumlandırılabilir? Bu iki konu KNIME ile çalışmaya daha başlamadan cevaplarını bulmak için kafamda oluşturduğum temel iki soru başlığı idi. Sırasıyla bu başlıklar altını nasıl doldurdum birlikte bakalım.</p>
<p><strong>Neden KNIME kullanılmalı?</strong></p>
<p><strong>Artifical Intelligence /Augmented Intelligence</strong> kavramlarının temel amacı olan <strong>insanın yapabildiği işlerin makineler tarafından yapılabilmesi</strong> yaklaşımı temelde Citizen Data Scientist yaklaşımı ile de örtüşmekte. Ve bu temelde Data Science alanında insan eliyle uzun uzun kodlar yazılması yerine, Citizen Data Scientist prensibini benimsemiş ve hali hazırda var olan node’lar üzerinden çalışan Data Science platformlarının kullanılmaya başlanması aynı düşünceye dayanmakta. Kendisine bu yaklaşımı benimsemiş olan KNIME platformu da Data Science disiplinini içselleştirmek isteyen herkesin öncelikli ihtiyaç olarak gördüğü kod öğrenme fazını atlatarak hızlıca üretmeye başlamasına yardımcı olacak şekilde geliştirilmiş. Uçtan uca tüm Data Science sürecine hizmet eden KNIME hem <strong>Data Engineer</strong>, hem <strong>Data Scientist</strong> hem de <strong>Data Analyst</strong> rollerinin ihtiyaç duyduğu gereksinimlere cevap veren bir platform. Bu sayede IT bağımlılıkları, çok yüksek kodlama maliyetleri ve süreçlerin her aşamasının farklı farklı uygulamalar ve platformlar üzerinde sürdürülmesi nedeniyle oluşan verimsizlik ve zaman kaybı konularını minimum seviyeye indirmek mümkün. KNIME ve benzeri analitik platformlar sayesinde aslında sadece Python ve R gibi kodlama dillerini bilenlerin kendilerine kolaylıkla Data Scientist diyemeyeceği, bu disiplinin en temelinde <strong>istatistik ve matematik</strong> bilgisi ile <strong>derin iş bilgisinin</strong> olduğu gerçeğinin daha iyi anlaşılacağı bir döneme geçiş yapıyoruz.</p>
<p><strong> KNIME nasıl konumlandırılabilir?</strong></p>
<p>Artık bütün şirketleri birer veri ve teknoloji şirketi olarak konumlandırabileceğimiz bir dönemdeyiz. Ve her şirketin öncelikli işlerinden biri elindeki veriyi işlemek ve kullanmak iken bu amaca kolaylık sağlayarak hizmet eden KNIME analitik platformunu, analitik çözümleri içselleştirmek ve kurum içinde yaygınlaştırmak, ve buna hızlıca adım atmak isteyen organizasyonlarda başından sonuna tüm analitik süreçlerin üzerinde ilerleyebileceği temel platform olarak konumlandırarak; veri yönetimi, analitik, risk-pazarlama gibi iş birimleri ve IT ekiplerinin aynı dili konuştuğu bir sinerji yakalamak çok mümkün.</p>
<p>Özetlemek gerekirse; Data Science ve Advanced Analytics disiplinlerine farklı açılardan bakıp, ilgili süreçlerin temellerinden olan iş bilgisi ve teorik birikimin veriyi ve ihtiyacı anlayıp yorumlamak konusunda herhangi bir yazılım dilini çok iyi bilmekten daha önemli olduğuna inanan ve uzun süredir de bunu tecrübe etmiş biri olarak, KNIME Platformunun Data Science ve Advanced Analytics disiplinine bakış açımızı değiştirdiğini ve bu disiplini daha erişilebilir bir noktaya getirdiğini söyleyebilirim. Diğer bir deyişle teorik model geliştirme yapmayan bir kullanıcının ihtiyaç duyduğu model için sıfırdan kodlama yapması ihtiyacı artık ortadan kalkıyor. Ve bu sayede pek çok farklı model üzerinde çalışmak ve optimal modele karar vermek süreci kolaylaşıyor.</p>
<p><strong>Citizen Data Scientist</strong></p>
<p>KNIME ile tanışmamın ve çalışmaya başlamamın benim için en büyük kazanımlarından biri de Citizen Data Scientist kavramını yakından tanımam ve her zaman inandığım teknik geliştirici olmayan kişilerin kodlama gurusu olmasının gerekmediği düşüncesine temel oluşturması oldu. Teknolojinin geldiği noktada bu yaklaşımın benimsenmesi ve yakın-orta vadede ulaşabileceği potansiyeli düşünmek beni gerçekten çok heyecanlandırıyor.</p>
<p>Kendi profesyonel görüşüm doğrultusunda geleceğe yönelik olasılıkları düşünürken sektördeki pek çok üst düzey profesyonelin bakış açısını ve teknolojik gelişmeleri yakından izleyip üzerinde çalıştığımız konuların akıbetlerine yön veren Gartner gibi şirketlerin Citizen Data Scientist kavramı ve buna bağlı disiplinler üzerine güncel araştırmalarını ve ilişkili yazıları incelemek düşüncelerimin önemli dayanak noktasını oluşturuyor.</p>
<p>Benim gibi düşünen ve Citizen Data Scientist kavramını merak eden pek çok kişi olduğuna inanıyorum. Bu nedenle bu yazı dizisinin 2. bölümünde Citizen Data Scientist kavramını etraflıca anlatıp, işimizi kolaylaştıracağı noktalara değineceğim. Sonrasında ise KNIME ile pek çok örnek üzerinden bu kavramın hayatımızı nasıl kolaylaştıracağını paylaşacağım.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>KNIME Analytics: How to Set Up an Oracle Connection</title>
		<link>https://www.caligo.com.tr/knime-analytics-how-to-set-up-an-oracle-connection/</link>
		
		<dc:creator><![CDATA[Kerem Kabil]]></dc:creator>
		<pubDate>Mon, 02 Nov 2020 12:36:53 +0000</pubDate>
				<category><![CDATA[Advanced Analytics]]></category>
		<category><![CDATA[Knime]]></category>
		<category><![CDATA[Knime Server]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<category><![CDATA[Oracle Connection]]></category>
		<category><![CDATA[Oracle Driver]]></category>
		<guid isPermaLink="false">https://caligo.caligo.com.tr/?p=2719</guid>

					<description><![CDATA[KNIME is an end to end data analytical tool. With its nodes, all analytical processes of data can be easily built. Every data project starts with accessing the data. Like any other analytical tools KNIME has several ways of accessing different types of data. Our data may be stored as .csv, .xlsx, .txt etc. or [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>KNIME is an end to end data analytical tool. With its nodes, all analytical processes of data can be easily built.</p>
<p>Every data project starts with accessing the data. Like any other analytical tools KNIME has several ways of accessing different types of data. Our data may be stored as .csv, .xlsx, .txt etc. or in most of real-world cases the data is stored in a database. Here, our main focus is on accessing to data stored in a database.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQERLEpkHmpGTQ/article-inline_image-shrink_1000_1488/0/1604307341581?e=1614211200&amp;v=beta&amp;t=uf_EoHWIeH0VJvu9Q_y2C9Ys3NnlXU6MCaxHKQcTTTM" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQERLEpkHmpGTQ/article-inline_image-shrink_1000_1488/0/1604307341581?e=1614211200&amp;v=beta&amp;t=uf_EoHWIeH0VJvu9Q_y2C9Ys3NnlXU6MCaxHKQcTTTM" /></div>
<p>At the image shown above, we can see different database management system nodes of KNIME. These connector nodes create a connection to corresponding databases. If we want to access to data stored in database, we must implement these nodes into our workflow. However, there is an important configuration difference between the connectors under the green roof and the connector under the orange roof. The difference is MySQL, PostgreSQL and Microsoft SQL Server have defined driver name, but Oracle not.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQHDZxgJOQ6tLw/article-inline_image-shrink_1000_1488/0/1604307370651?e=1614211200&amp;v=beta&amp;t=eZpodE5oM1veQzrMr0NoX3cV-m89uzQ7Erq5lObYUy4" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQHDZxgJOQ6tLw/article-inline_image-shrink_1000_1488/0/1604307370651?e=1614211200&amp;v=beta&amp;t=eZpodE5oM1veQzrMr0NoX3cV-m89uzQ7Erq5lObYUy4" /></div>
<p>We have determined the difference between configuration of Oracle Connector and the others so far.</p>
<p>Now, we can see the configuration windows of KNIME Microsoft SQL Server Connector and Oracle Connector nodes. As we see, there is no defined driver name in Oracle Connector while Microsoft SQL Server has. If we have a look at configuration windows of MySQL Connector and PostgreSQL Connector as well, we will see a defined driver name.</p>
<h2>All good, but what is the driver?</h2>
<p>Driver or JDBC Driver defines and creates a connection between KNIME and corresponding database. So, if we want to create a connection between KNIME and a database, there must be a defined JDBC Driver.</p>
<h2>Why is there no defined JDBC Driver in Oracle Connector Node?</h2>
<p>Oracle JDBC Driver is not a part of the KNIME, because there is a license restriction of Oracle. So, if we need to use Oracle Connector in our workflow, Oracle JDBC Driver needs to be registered manually. For more detailed information:</p>
<p><a href="https://kni.me/n/_fvEBQvrof1kSz-X" target="_blank" rel="nofollow noopener">https://kni.me/n/_fvEBQvrof1kSz-X</a></p>
<h2>How to register Oracle JDBC Driver manually?</h2>
<p>Firstly, we need to download Oracle JDBC Driver related to our database via <a href="https://www.oracle.com/database/technologies/appdev/jdbc-downloads.html" target="_blank" rel="nofollow noopener">https://www.oracle.com/database/technologies/appdev/jdbc-downloads.html</a>. Which database release (11g, 12c, &#8230;) is installed in your system, we need to download Oracle JDBC Driver related to your own installed database. Having downloaded the Oracle JDBC Driver, we need to register that driver manually. To do that, please follow the following path:</p>
<p><strong>File -&gt; Preferences -&gt; KNIME -&gt; Databases</strong></p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQE9NODP59vgag/article-inline_image-shrink_1000_1488/0/1604307509307?e=1614211200&amp;v=beta&amp;t=v_MThC5bHkt18nR3XLNUcE_OY6PtVRcSu4fYIV04ry0" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQE9NODP59vgag/article-inline_image-shrink_1000_1488/0/1604307509307?e=1614211200&amp;v=beta&amp;t=v_MThC5bHkt18nR3XLNUcE_OY6PtVRcSu4fYIV04ry0" /></div>
<p>Now, click <strong>Add</strong> to register Oracle JDBC Driver manually.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQGoBfkxLB1owQ/article-inline_image-shrink_1000_1488/0/1604307535256?e=1614211200&amp;v=beta&amp;t=EEbyGSydqB522Zhw-VtglE_y6mztpjLSah3kybYIevI" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQGoBfkxLB1owQ/article-inline_image-shrink_1000_1488/0/1604307535256?e=1614211200&amp;v=beta&amp;t=EEbyGSydqB522Zhw-VtglE_y6mztpjLSah3kybYIevI" /></div>
<p>Fill the <strong>ID</strong> and <strong>Name</strong> with Oracle, and select the Database Type with oracle. Having configured these parts, please click <strong>Add File </strong>to show Oracle JDBC file where located in your system. Then, click <strong>Find driver classes </strong>and KNIME find our driver class and version. Click <strong>OK </strong>and <strong>Apply and Close </strong>to quit.</p>
<p>Good, we have registered Oracle JDBC Driver manually. Let’s take a glance at Oracle Connector node again.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQF-R0znSOZomg/article-inline_image-shrink_1000_1488/0/1604307566140?e=1614211200&amp;v=beta&amp;t=zxRcGh_Gz-dxktF_HFNhx6T27LowXs1-USV9j62Bbug" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQF-R0znSOZomg/article-inline_image-shrink_1000_1488/0/1604307566140?e=1614211200&amp;v=beta&amp;t=zxRcGh_Gz-dxktF_HFNhx6T27LowXs1-USV9j62Bbug" /></div>
<p>Perfect! Our Oracle Connector node has a Driver Name now.</p>
<p>To connect our database, we need to fill <strong>Hostname</strong>, <strong>Port</strong>, <strong>Database</strong> <strong>name</strong> and</p>
<p><strong>Authentication</strong> with our database information and our credentials.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQHcYOvUJ8Rzsg/article-inline_image-shrink_1000_1488/0/1604307610547?e=1614211200&amp;v=beta&amp;t=RHpvk_HOpWPmDrwSc7yjW0n6cMTk4zMp2VxDDwSFT0E" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQHcYOvUJ8Rzsg/article-inline_image-shrink_1000_1488/0/1604307610547?e=1614211200&amp;v=beta&amp;t=RHpvk_HOpWPmDrwSc7yjW0n6cMTk4zMp2VxDDwSFT0E" /></div>
<p>Having configured database information and authentication credentials correctly, please click <strong>Apply </strong>and see the traffic lights turn green. This means that we have now connected our database!</p>
<p>Let&#8217;s read a dummy table from our database.</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4D12AQH3xVPWXrH2fw/article-inline_image-shrink_1000_1488/0/1604307651221?e=1614211200&amp;v=beta&amp;t=ivIziIQbt1lmrLdd2HjyfxGAYyBO4pul66hdzHLj0_Q" alt="Bu resim için metin sağlanmadı" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4D12AQH3xVPWXrH2fw/article-inline_image-shrink_1000_1488/0/1604307651221?e=1614211200&amp;v=beta&amp;t=ivIziIQbt1lmrLdd2HjyfxGAYyBO4pul66hdzHLj0_Q" /></div>
<p>Finally, we have reached our data! With <strong>DB Query Reader </strong>node, we can write SQL statements in KNIME, then click <strong>Evaluate </strong>to see our script results shown above.</p>
<p>Cheers!</p>
<p>Kerem</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>KNIME Level-1 Sertifika Deneyimim</title>
		<link>https://www.caligo.com.tr/knime-level-1-sertifika-deneyimim/</link>
		
		<dc:creator><![CDATA[Volkan Çamaş]]></dc:creator>
		<pubDate>Wed, 21 Oct 2020 12:45:12 +0000</pubDate>
				<category><![CDATA[Genel]]></category>
		<category><![CDATA[Advanced Analytics]]></category>
		<category><![CDATA[Knime Certification]]></category>
		<category><![CDATA[Knime Server]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<guid isPermaLink="false">https://caligo.caligo.com.tr/?p=2725</guid>

					<description><![CDATA[KNIME ile ilgili ilk yazımda ürün ile ilgili kısa bilgilere değinmiştim. Bir süredir yer aldığımız projelerde kazandığım deneyimler, ürün ile ilgili Udemy ve KNIME tarafından düzenlenen eğitimler ile birlikte ürünün kullanımı noktasında kendimi geliştirme fırsatı buldum. Kullanım alanları ve tecrübem de arttıkça bu alandaki sertifika programını incelemeye başladım. KNIME tarafından hazırlanan sertifika programı 4 seviyeden oluşan ve temelden ileri düzeye doğru adım adım ilerleyen bir süreç [&#8230;]]]></description>
										<content:encoded><![CDATA[<div id="ember1828" class="ember-view">
<div class="reader-article-content" dir="ltr">
<p><strong>KNIME</strong> ile ilgili <a href="https://www.linkedin.com/pulse/knime-ile-ilk-bulu%C5%9Fma-volkan-%C3%A7ama%C5%9F" target="_blank" rel="noopener">ilk yazımda</a> ürün ile ilgili kısa bilgilere değinmiştim. Bir süredir yer aldığımız projelerde kazandığım deneyimler, ürün ile ilgili <a href="https://www.udemy.com/course/knime-bootcamp/learn/lecture/13667854?start=15" target="_blank" rel="nofollow noopener">Udemy</a> ve <strong>KNIME</strong> tarafından düzenlenen eğitimler ile birlikte ürünün kullanımı noktasında kendimi geliştirme fırsatı buldum. Kullanım alanları ve tecrübem de arttıkça bu alandaki <a href="https://www.knime.com/certification-program" target="_blank" rel="nofollow noopener">sertifika programını</a> incelemeye başladım. <strong>KNIME</strong> tarafından hazırlanan sertifika programı 4 seviyeden oluşan ve temelden ileri düzeye doğru adım adım ilerleyen bir süreç halinde tasarlanmış.</p>
<p>Level-1 sertifikası için aşağıdaki üç konsepte aşina olmanız bekleniyor.</p>
<ul>
<li>KNIME platform hakkında genel kavramlar (Node içerikleri hakkında genel bilgi)</li>
<li>Data Export/Import</li>
<li>Data manipulation and aggregation</li>
</ul>
<p>Diğer seviyeler ise şöyle sınıflandırılmış ;</p>
<ul>
<li>Level 2 : Advanved Proficiency in KNIME Analytics Platform</li>
<li>Level 3 : Proficiency in KNIME Software for Collaboration and Productionizing of Data Science</li>
<li>Level 4 : Proficiency in KNIME Server Setup, Management and Administration</li>
</ul>
<p>Sınava girmek için KNIME web sitesinden &#8220;eventbrite&#8221; sitesine yönlendiriliyorsunuz. Burada sertifika için ödeme yaptıktan sonra size gelen e-posta ile sınava giriş yapıyorsunuz. Gelen linke tıkladığınızda bir web sayfası ile sınavınız başlıyor. Sınav takvimi güncel olarak <a href="https://www.knime.com/certification-program" target="_blank" rel="nofollow noopener">https://www.knime.com/certification-program</a> adresinde yayınlanıyor.</p>
<p>Sınav 15 çoktan seçmeli ve her soru için 3 dakikada tamamlamanız gereken bir akışla ilerliyor. 3 dakika içinde cevap veremezseniz bir sonraki soruya geçiyor ve sınavda geçtiğiniz sorulara tekrar dönüş şansınız bulunmuyor. Bu arada sınav süreci KNIME Web portali üzerinden bir workflow ile yapılmışa benziyor. Bu da <strong>KNIME</strong>&#8216;ın vizyonu ve bu konudaki iddiasını tekrar gösteriyor.</p>
<p>Sınavda internet bağlantısı mevcut, KNIME uygulaması açılabiliyor ve dokümanlara erişim için ayrıca bir güvenlik kontrolü bulunmuyor. Sınav başlangıcında sadece kullanılmaması yönünde bir uyarıda bulunarak işin etik kısmını kullanıcılara bırakıyor.</p>
<p>Yer aldığımız projelerde de kullandığımızdan ürünü inceleyip hem de farklı kullanım alanlarını incelemiştim. Ürün ile neler yapılabilir noktasında araştırma yaparken ve örnek projeleri incelediğinizde de vizyonunuzu genişletecektir. Bu ihtiyacınız için de <a href="https://hub.knime.com/search?type=Workflow" target="_blank" rel="nofollow noopener">KNIME Hub</a> adında bir portal mevcut. Farklı projeleri indirip hangi teknolojiler ve nasıl bir tasarım uygulanmış inceleyebilirsiniz. Ayrıca daha önce sorulmuş soruları incelemek için <a href="https://forum.knime.com/" target="_blank" rel="nofollow noopener">KNIME Forum</a> oldukça işime yaradı.</p>
<p>Sorulara geçecek olursam eğer <strong>KNIME</strong> kullanıp farklı farklı nodelar ile iş geliştirdiyseniz oldukça kolay cevap verebilirsiniz. Açıkçası seviye değerlendirmek için soru setini ben çok beğendim. Ne çok basit ne de en dip köşede kalan soruları soralım gibi bir kaygı hissettirmiyor. Yaklaşık bir 5 dk içinde de sınav sonucunuz mail ile size iletiliyor. ( Aşağıda görselde bana iletilen sınav sonu maili bulunuyor, umarım diğer sınavlar da bu kadar iyi geçer 🙂 )</p>
<div class="slate-resizable-image-embed slate-image-embed__resize-full-width"><img decoding="async" src="https://media-exp1.licdn.com/dms/image/C4E12AQGAji38duAsSA/article-inline_image-shrink_1000_1488/0/1602061628889?e=1614211200&amp;v=beta&amp;t=Q9pawaAfjaq66IXFrbbLmXDsAzgBcUGU77wwc5wMGvU" alt="No alt text provided for this image" data-media-urn="" data-li-src="https://media-exp1.licdn.com/dms/image/C4E12AQGAji38duAsSA/article-inline_image-shrink_1000_1488/0/1602061628889?e=1614211200&amp;v=beta&amp;t=Q9pawaAfjaq66IXFrbbLmXDsAzgBcUGU77wwc5wMGvU" /></div>
<p>İlk seviye sertifika için oldukça iyi bir sonuçla tamamladım. Burada KNIME ile ilgilenmemin yanı sıra iş tecrübemin sınava katkısını değerlendirecek olursam belki %15-20 arasında diyebilirim. Yani bu alanda hiç tecrübesi olmayan biri sadece ürünün eğitim dokümanlarına çalışarak ve ürün ile uygulamalar geliştirerek bu sertifikayı alabileceğini düşünüyorum. (Tabi bir yazılım ürünü öğrenme kabiliyeti de gerekiyor.)</p>
<p>Sınav ücretine değinecek olursam 100 € + Vergi ile birlikte 116 € &#8216; ya denk geliyor. Bir yazılım ürün sertifikasyonu için makul bir fiyat olarak görünse de güncel kurlar ile birlikte biraz pahalı. Güncel pandemi koşulları nedeniyle şu anda tüm sertifika sınavları online olarak yürütülüyor. <a href="https://www.knime.com/certification-program" target="_blank" rel="nofollow noopener">Linkten </a>güncellenen sınav tarihleri ve içerik hakkında daha detaylı bilgi de edinebilirsiniz.</p>
<p>Şimdilik ilk sertifika sınavından izlenimlerim bunlar, yenilerine katılmak için çalışmalarım devam ediyor. Yenileri eklendikçe de paylaşmayı planlıyorum. KNIME sertifikasyon sürecine ilgili duyan herkesin soru ve önerilerini bekliyorum.</p>
</div>
</div>
<div class="reader-flag-content__wrapper mb4 clear-both" data-ember-action="" data-ember-action-1829="1829"></div>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Evden Çalışma Yeni Normal Mi?</title>
		<link>https://www.caligo.com.tr/evden-calisma-yeni-normal-mi/</link>
		
		<dc:creator><![CDATA[Umut İşcan]]></dc:creator>
		<pubDate>Mon, 27 Apr 2020 13:00:22 +0000</pubDate>
				<category><![CDATA[Genel]]></category>
		<category><![CDATA[Covid]]></category>
		<category><![CDATA[Ctrip]]></category>
		<category><![CDATA[HomeOffice]]></category>
		<category><![CDATA[NewNormal]]></category>
		<category><![CDATA[NicholasBloom]]></category>
		<category><![CDATA[Pandemi]]></category>
		<category><![CDATA[WokPlace]]></category>
		<category><![CDATA[YeniNormal]]></category>
		<guid isPermaLink="false">https://caligo.caligo.com.tr/?p=1933</guid>

					<description><![CDATA[COVID-19 ile birlikte bir yeni normal senaryosu daha gündeme oturdu. Evden çalışma devrimi, plazaların sonu, yarı ev yarı ofis konutlar&#8230; Evet, bu süreçte şirketlerin gerektiğinde çalışanlarının evlerinden de işlerini yürütebilmelerine olanak sağlayan teknolojilere yatırım yapmasının, gerekli şirket politikalarını ve geleneklerini oluşturmasının bir ihtiyaç olduğunu gördük. Bu yatırımları hali hazırda yapmış kurumlar kolaylıkla, normal hayatın bir parçası gibi [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>COVID-19 ile birlikte bir <strong><em>yeni normal</em></strong> senaryosu daha gündeme oturdu. Evden çalışma devrimi, plazaların sonu, yarı ev yarı ofis konutlar&#8230;</p>
<p>Evet, bu süreçte şirketlerin gerektiğinde çalışanlarının evlerinden de işlerini yürütebilmelerine olanak sağlayan teknolojilere yatırım yapmasının, gerekli şirket politikalarını ve geleneklerini oluşturmasının bir ihtiyaç olduğunu gördük. Bu yatırımları hali hazırda yapmış kurumlar kolaylıkla, normal hayatın bir parçası gibi yeni sürece adapte oluverdi. Aslında onlar mekan bağımsız işlerini sürdürebilmeye yıllar önce adapte olmuş şirketler. Çalışanları bundan 10 sene önce de benzer imkanlardan faydalanıyordu.</p>
<p>Peki mekan bağımsız çalışabiliyorlar da, bu dev plazalar neden hala duruyor? Bu yaşadıklarımız evden çalışmaya doğru giden, toplu çalışma hayatının sonunu getiren bir <strong><em>yeni normal</em></strong> habercisi değil mi?</p>
<p>Bence değil, nedenlerini de yazının devamında açıklamaya çalıştım.</p>
<h3>Evden çalışma ve CTrip hikayesi</h3>
<p><em>&#8220;</em><strong><em>Bence </em></strong><em>evden çalışma şöyle faydalı, böyle zararlı&#8221;</em> diye kişisel hissiyatla söze başlamak yerine bunu bilimsel bir dayanak ile desteklemeyi tercih edenlerin istisnasız rastlayacakları bir araştırmadan bahsetmekte fayda var. Shanghai merkezli, 20.000 çalışanı olan, Çinli seyahat acentesi devi <strong><em>CTrip </em></strong>şirketinin yöneticileri, Shanghai&#8217;daki gayrimenkul kiralarından muzdarip olmaya başlayınca olağanüstü ofis alanı maliyetlerinden kaçınarak çalışabilir miyiz sorusunun peşine düşüyorlar. Şirket çalışanlarının yarısının dokuz ay boyunca evden, yarısının ofisten çalıştığı bir çalışma modeli uygulamak için çalışanlar arasından evden çalışmaya gönüllü kişiler seçiyorlar. Hemen hepsi çağrı merkezi çalışanı bu arada.</p>
<p><em>Stanford Graduate School of Business</em> ekonomi profesörlerinden <a href="https://www.gsb.stanford.edu/faculty-research/faculty/nicholas-bloom" target="_blank" rel="nofollow noopener noreferrer"><strong><em><u>Nicholas Bloom</u></em></strong></a> ve beraberindeki bir grup araştırmacı da tam 2 sene boyunca bu iki grubu gözlemliyor. Bu araştırmaya atıfta bulunulan pek çok yazıda araştırmanın evden çalışmayı destekleyen şu çarpıcı sonucu gözler önüne seriliyor: <strong><em>&#8220;Evden çalışan kişilerin performansı %13 arttı, işten ayrılma oranı da %50 azaldı&#8221;</em></strong>. İnanılmaz!</p>
<p>Evden çalışmanın COVID-19 sebebiyle yeniden gündeme oturması ile birlikte, evden çalışma üzerine yapılmış bu kapsamlı ve günümüze en yakın araştırmalardan birinin lideri Nicholas Bloom ile yapılan yeni bir <a href="https://news.stanford.edu/2020/03/30/productivity-pitfalls-working-home-age-covid-19/" target="_blank" rel="nofollow noopener noreferrer"><strong><em><u>röportaj</u></em></strong></a> geçtiğimiz ay Stanford Üniversitesi web sitesinde yayımlandı. <strong><em>&#8220;Bu aralar herkes evden çalışmanın yeni küresel trend olacağını savunacağımı düşünüyor ama ne yazık ki öyle değil&#8221; </em></strong>diyor Bloom ve gerekçelerini açıklıyor.</p>
<p>Bloom araştırmaya atıfta bulunulan yazıların pek çoğunda hikayenin eksik anlatıldığını, söylüyor. Örneğin;</p>
<ul>
<li>Evden çalışmasına izin verilen CTrip çalışanlarının evlerinde bu iş için rezerve edilmiş ve çalışma saatlerinde kimsenin girmesine müsade edilmeyen, konsantre bir şekilde çalışmaya olanak sağlayan bir çalışma odası bulunması şarttı. Bu arada <strong><em>&#8220;çalışma odası&#8221;</em></strong> olarak dizayn edilmiş özel bir alandan bahsediyoruz, mutfağın veya yatak odasının kapısını kapatıp çalışmak değil söz konusu olan.</li>
<li>Çalışma tamamen evden çalışma şeklinde değildi. Haftanın 4 günü evden, 1 günü ise ofisten çalışma zorunluluğu vardı.</li>
<li>Evden çalışma modeline geçtikten <strong><em>9 ay sonra</em></strong>, evden çalışmaya gönüllü olan çalışanların <strong><em>%50</em></strong>&#8216;si, evden ofise ortalama ulaşım süreleri 40 dakika olmasına rağmen ofiste çalışmaya geri dönmek istediğini söyledi. Gerekçeleri artık evde kendilerini <strong><em>soyutlanmış</em></strong>, <strong><em>yalnız </em></strong>ve <strong><em>depresif </em></strong>hissetmeleri idi. Pek çoğu aynı evi paylaştıkları ebeveynleri, eşleri veya ev arkadaşları ile ciddi sorunlar yaşamaya başlamıştı.</li>
</ul>
<p>Bloom, uygun şartlar sağlandığında evden çalışmanın belki geçici bir süre verimliliği artırmasına rağmen; iş yapma şeklini veya müşteri deneyimini iyileştirecek olan yaratıcılığın ve problem çözme kabiliyetinin önündeki en büyük engel olduğunu söylüyor. Bloom, şu an fiziksel temas kurmadan çalışmanın sonucunda ortaya çıkarılamayan yeni fikirler sebebiyle 2021 ve sonrasında yeni ürün sürümlerinde ve ekonomik büyümede ciddi sıkıntılar yaşanmasına kesin gözüyle bakıyor.</p>
<p>İkinci endişesi de evden çalışma modelini 9 ay uyguladıktan sonra ofise geri dönmeyi talep eden CTrip çalışanlarında gördükleri zihinsel sağlık problemleri ve bunların aile yaşantısına ve iş hayatına olumsuz etkileri.</p>
<h3>Spontane karşılaşmaların önemi</h3>
<p>Evden çalışma moduna geçtikten sonra toplu çalışma ortamlarında başımıza sıklıkla gelen spontane karşılaşma ihtimalleri ortadan kalktı. Spontane iletişim farkındalığın artması, yaratıcılığın ve yeni fikirlerin gelişmesi için olmazsa olmaz faktörlerden halbuki ve tesadüfi karşılaşmaları uzaktan uzağa çalışılan bir modelde sağlamak imkansız.</p>
<p>İlk çalıştığım işyerinde, henüz daha 6-7 aylık tıfıl bir çalışanken, mesaiye kaldığım bir akşamda genel müdür yardımcımızla bir merhabalaşma ile başlayan 3-5 dakikalık bir sohbet iş hayatına bakış açımı ve farkındalığımı baştan sona değiştirmişti. Şu an çalıştığım alanı seçmeme vesile olan da eski işyerimdeki tesadüfi bir karşılaşmadır örneğin. Çoğumuzun kariyer hayatı bunun gibi hiç hesapta yokken gelişen ve sonunda &#8220;Vay be!&#8221; dediğimiz pek çok anı ile doludur.</p>
<p>Steve Jobs, uzaktan çalışma taraftarı bir insan değildi ve yaratıcılığı öldürdüğünü şu sözlerle dile getiriyordu: <strong><em>&#8220;Yaratıcılık rastgele gelişen tanışmalardan ve tartışmalardan geliyor. Biriyle karşılaşıyorsunuz, ne yaptığını soruyorsunuz, sonra &#8220;Vay be!&#8221; diyorsunuz ve fikirlerinizi paylaşıp geliştiriyorsunuz.&#8221;. </em></strong>Bu yüzden evde e-posta kutusuna bakan değil, insanlarla fiziksel etkileşim kuran çalışanların verimli ve faydalı çıktılar üretebildiğini söylüyordu.</p>
<p>Bu sebeple Apple ofislerinin, büyük ortak bir alanı çevreleyen küçük izole ofis alanlarından oluştuğu <a href="https://www.inc.com/geoffrey-james/steve-jobs-hated-working-from-home-but-thats-only-half-picture.html" target="_blank" rel="nofollow noopener noreferrer"><strong><em><u>söylenmekte</u></em></strong></a>. Hem insanların işyerinde sosyalleşmelerine ve hiç hesapta yokken karşılaşmalarına olanak sağlayacak, hem de gerektiğinde konsantre çalışmak isteyenler için gerekli izole alanlara sahip ofis alanlarından bahsediyoruz.</p>
<p>Bizler de müşterilerimizin derdini anlamaya çalışan ve doğru teknolojik çözümü uygulamak amacında olan kişiler olarak, iş hayatında bu durumu net bir şekilde gözlemleriz. Müşteri ihtiyacını anlamanın en iyi yolu, müşteri ile doğal çalışma ortamında vakit geçirmek ve hiç beklemediğiniz anlarda ortaya çıkıveren ipuçlarını biriktirmektir. Assessment tarzı çalışmaları bu yüzden yaparız. Sadece proje sponsoru üst seviye yöneticileri dinlemek yerine, her seviyeden insanı gözlemlemeyi tercih ederiz. Yalnızca üst yönetimin ihtiyacı veya sorunu anlatmaya çalıştığı, her seviyeden çalışanın aktif olarak dinlenemediği toplantılar gerçek ihtiyacı anlama konusunda bazen yetersiz kalır ve bizleri yanlış yönlendirir. Spontane soru-cevaplar, çay alırken istemsizce gelişiveren 2 dakikalık bir dedikodu seansı, toplantı çıkışı ayaküstü yapılıveren bir kaç dakikalık alternatif toplantılar, hararetli bir telefon görüşmesine istenmeden kulak misafiri olunması, insanların öğle yemeğine giderken asansörde nelerden bahsettikleri&#8230; Bunlar gerçek motivasyon unsurları, optimum çözüm ve gerçek müşteri memnuniyeti için yol gösterici ipuçlarıdır çoğu zaman.</p>
<p>&#8220;Gerçekten çok verimli bir toplantıydı&#8221; diye kapatılan bir toplantının aslında müşterinin hiç ilgisini çekmediğini toplantı esnasındaki görüntüsünden, mimiklerinden, defterine ne karaladığından çok kolay anlarsınız. Neyden bahsettiğinizde ilgilendiğini ve umutlandığını, neyden bahsettiğinizde size içinden &#8220;Yine aynı palavra!&#8221; demek istediğini ama diyemediğini görürsünüz. Bu ancak aynı odada olduğunuzda mümkündür.</p>
<h3>Ortak çalışma alanlarının albenisi</h3>
<p>İngilizce&#8217;de <strong><em>Coworking Space</em></strong> diye anılan ortak çalışma mekanlarına yeni yeni alışma arifesindeydik. İlk başlarda küçük şirketlerin çok büyük yatırımlar yapmadan paylaşımlı hizmetlere (toplantı odası, konferans salonu, sekreterya, cafe gibi) erişmelerine olanak sağlayan alanlar olarak değerlendirildi buralar ve müşterileri de çoğunlukla çalışan sayısı az, bütçesi kısıtlı şirketler oldu.</p>
<p>Ancak çok kısa bir zaman sonra bu alanlar iş hayatıyla sosyalleşmenin bir araya geldiği, tesadüfi karşılaşmaların yeni fikirleri ve iş ortaklıklarını patlattığı, iş hayatına yönelik organizasyonların düzenlendiği, hafta sonlarında bile insanların evde çalışmaya tercih ettikleri çekim merkezleri haline geldiler. Sonra binlerce çalışanı olan devasa kurumların buralardan ofis sahibi olabilmek için sıraya girdiklerini gördük. Hatta bu şirketler, kendi çalışma mekanlarında da, çalışma alanlarını sınırlayan fazla duvarları yıkıp, sadece yeterli miktarda izole alan bıraktılar ve iş ortamında insanların birbirine temas etme ihtimallerini artıran mekanlar yaratmaya koyuldular.</p>
<p>Cuma sabahları kahvaltı, öğleden sonra kurabiye eşliğinde çay saati, 7/24 çalışan kahve köşesi gibi uygulamaların insanların aç kalmasından duyulan endişenin sonucu olmadığını fark etmişizdir umarım.</p>
<h3>Agile çalışma düzeni</h3>
<p>Uzunca bir süre, iki haftalık planlar yapmak, duvarlara sticker yapıştırmak ve ayakta toplantılar yapmaktan ibaret olduğunu düşündüğümüz Agile kavramını da tam yeni yeni oturtuyorduk. Onlarca kilometre uzaklıkta konumlanmış, birbirinden habersiz, iki farklı grup olmaktan sıyrılıp, bir bütün olmuş business ve teknoloji ekiplerinin bir arada, aynı mekanda, yüz yüze çalıştığı, birbirini sürekli gözlemleme şansı bulduğu, talep gelmeden çözüm önerildiği ve kararların çok hızlı alındığı ideal çevikliği yakalamış ekipler olmaya başlıyorduk tam da.</p>
<p><strong><em>Yeni normal</em></strong> dediğimiz şey, agile manifestonun <a href="https://agilemanifesto.org/iso/tr/principles.html" target="_blank" rel="nofollow noopener noreferrer"><strong><em><u>12 temel prensibinden</u></em></strong></a> ikisini bence uygulanamaz hale getiriyor :</p>
<ul>
<li>İş süreçlerinin sahipleri ve yazılımcılar proje boyunca her gün birlikte çalışmalıdırlar.</li>
<li>Bir yazılım takımında bilgi alışverişinin en verimli ve etkin yöntemi yüz yüze iletişimdir.</li>
</ul>
<p>Evet biri Çin&#8217;de biri Amerika&#8217;da kurulu ofisi olan ve mecburiyetten aynı mekanı paylaşamayan kurumlar için ortaya konmuş bir takım <strong><em>uzaktan uzağa çevik olma</em></strong> pratikleri de var ama çok etkili olduklarını söylemek güç. Zoom&#8217;da günün belirli zamanları yüz yüze ile aynı çalışma ortamında yüz yüze arasında maalesef dağlar kadar fark var.</p>
<h3>Sonuç</h3>
<p>İnternetin yaygınlaşmaya başladığı ilk yıllarda <strong><em>&#8220;İnternet, ekonomi dünyasında en fazla faks makinesinin icadı kadar etki yaratacak&#8221;</em></strong> diyen Nobel ödüllü ekonomist <strong><em>Paul Krugman </em></strong>gibi tarihe talihsiz bir şekilde geçmek istemiyorum ama, toplu çalışma hayatının sonuna gelindiğini iddia eden <strong><em>yeni normal </em></strong>hikayelerinin tarafında değilim. Yakınından bile geçmiyorum. Zaten bu senaryo sadece evden çalışma ile de sınırlı kalmıyor. İnsanların bir araya geldiği pek çok aktivitenin &#8220;evden&#8221; yapılması demek oluyor. Evden eğitim, evden tatil, balkondan bayram kutlaması, seyircisiz spor, evden konser, evden eş, dost, akraba ziyareti&#8230;</p>
<p>Bunun yerine yıllardır göstermelik duran &#8220;Çalışan Sağlığı ve İş Güvenliği&#8221; birimlerinin artık somut olarak söz sahibi olması, maksimum insan sığdırmak yerine çalışan sağlığı odaklı yaklaşımlarla ofis düzenlerinin oluşturulması, öncelikle insan sağlığını odağına alan toplu taşıma uygulamaları, sağlık ve genetik araştırmalar alanında ihmal edilen yatırımların canlandırılması, önleyici sağlık uygulamalarının geliştirilmesine dair hikayeler bana daha akılcı geliyor.</p>
<p>Tabii hepsinden önemlisi toplum sağlığı için bireysel farkındalık. Toplum sağlığı için maskenin kıymetini yeni öğrendik örneğin. Alkolün virüslerin yağ dokusunu çözüp öldürdüğünü de. Eminim bundan sonra yeni tanıştığımız biriyle el sıkışmadan, 4 kişilik toplantı odasına 10 kişi doluşmadan, gece ateşi çıkmış çocuğumuzu ertesi sabah okula göndermeden, hasta iken toplu alanlara girmeden önce bir durup düşünecek, bu günleri hatırlayacak ve daha duyarlı olacağız.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
