bigdata címkével jelölt bejegyzések

Októberi Big Data Tréning és Adatvezérelt Marketing Képzés

Októberben jönnek az új alkalmak!
Mindkét képzés – szokás szerint – max. 12 fővel indul és októberben csak 1-1 alaklom lesz, úgyhogy vigyázz, nehogy lemaradj! : )

Október 9. – Big Data Tréning

Tóth Zotya, Mester Tomi, big data tréning


Október 16. – Adatvezérelt Marketing Tréning

adatvezérelt marketing tréning
Várunk szeretettel!

Tomi

A nagy Big Data félreértés

“A Big Data olyan mint a tiniknél a szex:

  1. mindenki erről beszél
  2. senki sem tudja igazán, hogy hogyan kell csinálni
  3. mindenki azt hiszi, hogy  a többiek csinálják
  4. ezért mindenki azt mondja, hogy ő is csinálja.”

(Dan Ariely)

Biztosan hallottad már a fenti mondást. Félig vicces, de félig igaz is. Manapság már a csapból is a Big Data folyik és ennek a legfőbb oka nem a technológia terjedése, hanem az, hogy az újságírók és a marketingesek rájöttek, hogy ennek a két szónak az említésével szinte bármit el lehet adni. A másik oldalról viszont a valódi adat-szakemberek ritkán írnak közérthető cikkeket a témában, hiszen őket a technológia érdekli.
Ezt az űrt szeretném betölteni ezzel a rövid kis cikkel. Mi az a Big Data? Érthetően, de marketing bullshit nélkül.

Small Data

Kezdjük onnan, hogy mi az a small data? Az adatelemzés alapjainak alapjait a népszámlálás teremtette meg, ahol már évszázadokkal ezelőtt is kérdezőbiztosok mindenféle érdekes dolgokat kérdezgettek az emberektől. Ennek a következő evolúciós lépcsője a kérdőívezés lett, ami mind a mai napig egy gyakran használt piackutatási módszer. Mi a baj a kérdőívezéssel? Egyrészt a mintavétel: még a legprecízebb, legkörültekintőbb mintavétel is tévedhet. Hogyan reprezentálhatná hűen 2.000 ember válasza egy millió ember gondolatait? Persze vannak korrekt statisztikai módszerek, de a hibázás lehetősége mindig fennáll. A másik probléma a válaszok minősége. Az emberek hazudnak és gyakran nem is tudják, hogy hazudnak. Ha Téged megkérdeznek, hogy mi a kedvenc színed, lehet, hogy ma azt mondod, hogy a piros… aztán 1 hét múlva rájössz, hogy amúgy az összes pólód sárga és elbizonytalanodsz. De addigra már leadtad a válaszodat, a nagy üzletemberek pedig már döntéseket hoztak az alapján.

Ezek tipikus small data-s problémák.

Majdnem Big Data

Ezekre a problémákra ad választ a big data-s gondolkodás mód. Ha big data alapon gondolkozunk, akkor nem megkérdezzük az embereket, hanem a megfigyeljük viselkedésüket. Így nem tudnak nekünk (és maguknak) hazudni. Emellett pedig nem csak 2.000 embert figyelünk meg, hanem az összeset.

Értelemszerűen ez a legkönnyebben a számítástechnikai és az ahhoz kapcsolódó területeken történhet meg, ahol minden kattintásból és egérmozgásból új adatsor születhet.

Ezen a logikán keresztül születtek meg az olyan ismert és használt projektek, mint a Google Analytics, a CrazyEgg vagy a Mixpanel.

Bár ezekben a projektekben minden felhasználó/látogató viselkedését letárolták, de még mindig nem számítanak Big Data-nak, mivel relatív még mindig elég kicsi adatmennyiségről és korlátok között mozgó, nem túl rugalmasan kezelhető adathalmazokról beszélünk (pl. csak az előre meghatározott riportokat lehet legyártani, nem lehet kettőt kombinálni)… De akkor mi a tényleg nagy?

Big Data

Az elmúlt évek (évtizedek) egyik fontos trendje volt, hogy az adattárolás ára folyamatosan és nagy erővel csökkent. Mára elértük azt az állapotot, hogy olyan olcsó adatot tárolni, hogy inkább elmentünk mindent és nem törlünk ki semmit. És ez a kulcsa a Big Data-nak! Letárolunk minden adatot, amit csak tudunk és nem törlünk ki belőle semmit, még évekre visszamenően sem. Ezt jellemzően már nem Analytics-szerű programokba pakoljuk, hanem saját adattáblákba (pl. SQL) vagy log-okba.

Így előbb vagy utóbb akkora adatbázisok jönnek létre, amivel egy számítógép már nagyon nehezen birkózik meg. Egy terabájtos nagyságú adathalmazt Excel-ben vagy SPSS-ben nyilván meg se próbálunk megnyitni. De egy rendes SQL lekérdezés is akár órákon, sőt napokon keresztül futhat rajta. Egész egyszerűen akármivel próbálkozik az ember (R, Python, etc.), azt látja, hogy elérte a számítási kapacitás tetejét és nem tudja értelmes időn belül feldolgozni az adatait.

És ekkor jönnek képbe a Big Data technológiák – aminek az alapja, hogy az adatainkon innentől fogva nem egy számítógép dolgozik, hanem akár több tíz vagy száz vagy még több. Legtöbbször ezek a cluster-ek könnyen és szinte végtelenül skálázódnak: minél több az adatunk, annál több erőforrást tudunk bevonni a feldolgozásába. Így újra normális idő alatt tudjuk elemezni az adatainkat. Viszont sok-sok számítógépet egybekötni és egyszerre dolgoztatni egy elemző script-en: új infrastruktúrát és új technológiát igényelt. Így született meg a Big Data technológiák széles tárháza és így kerültek be a köztudatba az olyan fogalmak, mint a Hadoop, a YARN, a Spark, a Pig és a többi divatos Big Data technológia.

Big Data evolúció cégen belül

Nézzük egy startup esetében, hogy működik a Big Data evolúció.

1. Először a korai szakaszban nincs adatelemző a cégnél, de nem akarnak vakon repülni. Ezért fel-setup-olnak egy Google Analytics-et, egy Mixpanel-t, meg egy CrazyEgg-et és nézegetik az adataikat.

2. Megvan az első 10.000 felhasználó. A cégvezetés rájön, hogy a Mixpanel és a CrazyEgg kezd drága lenni, meg amúgy sem mutatnak elég részletes riportokat. Így elkezdenek saját SQL táblákat építeni és szabad szöveges log-okat gyártani. Ezt pedig valaki elemezgeti, különbözős SQL, Python vagy R script-ekkel.

3. Továbbra is növekszik a felhasználószám és az elemző(csapat) ekkor már arra panaszkodik, hogy 10-20 perc alatt sem futnak le az elemző script-jeik. Aztán, amikor elérik a több órás futás időket, rájönnek, hogy szükség lesz egy Big Data technológiára és elkezdik guglizni, hogy mi is az a Hadoop… :-)
Remélem ez a rövid összefoglaló segít eloszlatni egy kicsit a ködöt a Big Data mítosz körül. Ha pedig több tudásra van szükséged a témában, a szeptember 17-i Big Data tréningünkre még van 2 hely.

Hamarosan folytatom a témát egy új cikkel! Ha értesülni akarsz róla, iratkozz fel!

Tomi

Tréningek: Big Data, Adatvezérelt Marketing újra!

Jön a szeptember – és szeptemberrel újra jönnek az Adatlabor képzések is!
Hasonlóan a korrábiakhoz, mindkét tréningünk létszámát maximáljuk 12 főben és mivel ez elég gyorsan beszokott telni, azt javasoljuk, ne habozz – hanem jelentkezz! : )

Szeptember 11. – Big Data Tréning

Tóth Zotya, Mester Tomi, big data tréning

Szeptember 18. – Adatvezérelt Marketing Tréning

tréning oktatók Németh Anna Pásztor Dávid Mester Tomi
Várunk szeretettel!

Tomi

Big Data könyv 1. rész – Mit érdemes olvasni?

A nyáron volt egy kis időm olvasgatni, így hát beszereztem több Big Data könyvet is!

Big Data Könyv 1 - Schönberger, Cukier1. Viktor Mayer-Schönberger & Kenneth Cukier: Big Data

értékelés: 2/10
Őszintén: nagyon megbántam, hogy rászántam az időmet erre az írásra. 200 oldalon keresztül sztorizgat, hasonlatokat hoz – néha nem is Big Data-ról – és a tényleges tartalmát kb 5 oldalban össze lehetne foglalni. A stílusa élvezhetetlen, nagyon szájbarágós, folyamatosan ismételgeti önmagát – ráadásul olyan dolgokban (korreláció vs. kauzalitás), amiben nem is feltétlenül van igaza. A jó történeteket (Google Flue Trends, Netflix, Amazon, etc.) egyébként már mind-mind olvashattuk online a kiemelt hírek között is az elmúlt 10 évben.
Azoknak ajánlom, akik szeretnének egy új – trendi – társalgási témát bedobni az esti borozgatásokhoz a baráti társaságban… De gyakorlatiasságra vagy arra, hogy megtudd, mi az a Big Data, ne számíts! (Ez csak azért szomorú, mert – megtévesztő módon – ez a könyv címe.)

Big Data könyv 2 - Lean Analytics2. Croll & Yoskovitz: Lean Analytics

értékelés: 9/10
Ellentétben az előző könyvvel, ezt 100%-osan ajánlom mindenkinek, aki adatvezérelten akar akármilyen bizniszt felépíteni. Nem kifejezetten Big Data könyv, sokkal inkább adatstratégiáról szól, de nagyszerű gondolatindító. Ha big data-val fogsz dolgozni üzleti fókusszal, akkor egyértelműen alapmű. Ha pedig ugyanezt teszed, de technológiai fókusszal, akkor ez a minimum, amit látnod kell az üzleti oldalról.
A könyv legnagyobb előnye, hogy nagyon-nagyon gyakorlatias. 31 fejezeten keresztül leírja az összes módszertant, illetve tesztelési, elemzési és egyéb praktikákat, amelyeket a menő “data-driven” cégek már kipróbáltak és sikerrel alkalmaznak. Minden fejezet végén megkapod a saját kis “házi feladatodat”, így rövid távon gyakorlatba ültetheted a tudást.

Big Data Könyv 3 - I heart logs3. Jay Kreps: I heart Logs

értékelés: 8/10
Ha az előző írás a startégiai, akkor ez a technológiai alapmű. Jay Kreps a LinkedIn adatinfrastruktúráját építette fel és közben olyan Big Data technológiát támogató open-source projekteket hozott létre, mint a Kafka, a Samza vagy az Azkaban. Ebből sejtheted, hogy nagyjából a füzet minden szava arany. Sajnos elég rövid (50 oldal), de egyúttal tömör és lényegretörő is. Mire a végére jutsz, biztosan érteni fogod, hogy mi az a log, mi köze van ennek a Big Data-hoz és hogy hogyan kell összedrótozni egy normális adatinfrastruktúrát. Betekintést kaphatsz abba, amit a LinkedIn anno a saját bőrén tanult meg – ami nem csak érdekes, de iszonyatosan hasznos is.

A könyveket itt veheted meg:
I heart Logs: http://shop.oreilly.com/product/0636920034339.do
Lean Analytics: http://leananalyticsbook.com

Ha pedig tréningen vagy képzésen ismerkednél meg az alapokkal:

Big Data Képzés: KLIKK!
Adatvezérelt Marketing Képzés: KLIKK!

Tomi

Vendégblog: A kis herceg és a Big Data – így kezdj neki

Pusztai Ádám Big Data cikkEheti vendégbloggerünk Pusztai Ádám, aki az adatlaboros egyetemista képzésünket is látogatta. Ádám egyébként Veszprémben végzett vegyészmérnökként, emellett pedig a Big Data az egyik fő érdeklődési területe… A következő profi összefoglalója a Honnan (és hogyan) tanuljunk a Big Data-ról címet is kaphatta volna.


“Ami igazán lényeges, az a szemnek láthatatlan.”
A kis herceg remekül összefoglalta az adatelemzés és adatbányászat lényegét. Az utóbbi időben egyre inkább érdekel ez a téma, ezért gondoltam, hogy utánanézek, ki mit mond róla, és ha beleásnám magam, akkor hogyan kezdjem el. Tuti recept szerintem nincs, de én így álltam neki:

Gyűjtögetés
A taktika az volt, hogy felütöttem a Google-t a “big data”, “how to start big data learning”, “big data 101” címszavaknál, és gondolkodás nélkül megnyitottam az összes első oldalas találatot. Ezek között voltak hasznos oldalak, kevésbé hasznosak, egyáltalán nem témába illőek (rossz SEO), és voltak összegyűjtött listák is.

Ezeket a találatokat bedobáltam egy dokumentumba, de ebben a formában teljesen használhatatlan volt, úgyhogy elkezdtem rendszerezni.  Ezután már csak azt kellett kitalálni, melyikkel résszel kezdjem.

A terv
Úgy gondoltam, egy kis ráhangolódás nem árt, ezért először olyan TED videókat kerestem, amik kapcsolódnak a témához. Itt találsz 13 előadást az adatokról, ebben a videóban pedig Hans Rosling elképesztő statisztikáit láthatod (mozgó bogyók, úristen mennyire menő!).
Többször is előkerült ez az infografika azzal a tanáccsal, hogy vallásos áhítattal kövessem. Nem mondom, hogy így van, de néha kelet felé fordítom és napjában ötször ránézek.

Első lépésként olyan forrásokat kerestem, amik helyre teszik a fejemben azt, hogy a Big Data mire jó, milyen technikákkal lehet és érdemes nekifogni ilyen elemzéseket végezni, és ehhez milyen technikai háttér szükséges részemről. Az ajánlások alapján a következő könyveket szereztem be (mindegyik ingyenesen elérhető):

Egyelőre az első hármat olvasom, aztán majd kiderül, hogy a keményebb programozás témájú könyvek hogy mennek. Annak érdekében, hogy ne csak könyvekből kelljen kihámoznom a lényeget, találtam online kurzusokat mind általánosan Big Datára, mind pedig programozásra is. A következőket ajánlom:

Online kurzusok / Big Data:

Online kurzusok / Programozás:

A végén járok a Codecademy-s Pythonnak és a CodeSchool-os R-nek, a Datacamp lesz a következő utánuk. Mindkét nyelv tetszik, sokban hasonlítanak a Matlabra, amit az utóbbi években használtam (nem feltétlen adatbányászatra).

Trello tábla gyűjtemény
Egy elvetemült figura készített egy hatalmas gyűjteményt, külön táblákra rendszerezve az ő forrásait, aszerint, hogy melyik cikk, online kurzus, könyv, blog, képregény(?), és a többi. Itt megtalálod.

Gyakorolni, gyakorolni, gyakorolni
Megvan a tudás a fejedben, a rendszerek a lelki szemeid előtt, most ki kellene próbálni mindezt. De hogyan? Ha nincs kéznél egy irdatlan méretű adatbázisod, ne ess pánikba, ilyeneket is találtam:

  • Quandl: ingyenes/korlátozott hozzáférés rengeteg adatbázishoz: https://www.quandl.com/
  • egyéb gyűjtemények:

A versenyszellem is segíthet. A Kaggle olyan oldal, ahova adatelemzős feladatokat töltenek fel (például a GE, az Amazon, vagy a Microsoft), és benevezhetsz a saját algoritmusaiddal és megoldásaiddal az adott contest-re, magyar szemmel nézve nagyon szép díjazásokért. Ráadásul még tutorial oldaluk is van, érdemes rápillantani arra is.

Alapok, technikák, gyakorlás – nekem ez a tervem a nyárra. Te hol tartasz?

Pusztai Ádám

Ha Arany és Petőfi miatt vagy itt…

… akkor jó helyen jársz. Az Adatlabor csinálta a kutatást. (inspirácóért köszönet Kajtár Róbertnek) Itt megmutatok néhány technikaibb háttér-infot az elemzésről. Röviden újra összefoglalom az eredményeket. (Ha a kódolás részét túl bonyolultnak érzed, ugord át nyugodtan.) A kutatás célja az volt, hogy kiderítsük, melyik költőnknek a legnagyobb a szókincse, azaz melyik költőnk használ legtöbb »egyedi« szót verseiben. Az eredmények röviden:

egyedi szavak egyedi szótövek leírt szavak egyedi szótő arány
1 Arany János 59697 ~16.000 287425 20.77%
2 Vörösmarty Mihály 43938 ~12.000 214104 20.52%
3 Petőfi Sándor 32855 ~9.600 154721 21.23%
4 Ady Endre 30243 ~10.400 124574 24.28%
5 Babits Mihály 27116 ~11.000 398003 6.81%
6 József Attila 19635 ~8.200 62811 31.26%

Tehát, ahogy azt magyar órán is megtanulhattuk: Arany János a nyertesünk.

Több részletet: az origo-s cikkben olvashatsz.

Nézzük a technikai hátteret az egész mögött.
1. Milyen technológiát válasszunk?
Ez nem volt nehéz döntés. Csak egy gondolat: a Big Data nagyjából 1 milliárd sornyi adatnál kezdődik és mivel ennyit együtt sem írtak költőink, bár használhatnánk Big Data script-eket, ez amolyan ágyúval verébre megoldás lenne.
Egyébként Apache Pig-ben egy szószámláló script kb így néz ki hozzá:

A = load './input.txt';
B = foreach A generate flatten(TOKENIZE((chararray)$0)) as word;
C = group B by word;
D = foreach C generate COUNT(B), group;
store D into './wordcount';

(Forrás: itt)

A másik nyelv a Python lehetne, de az igazság az, hogy ilyen “kicsi” (pár százezer sor) adatmennyiséggel még egy egyszerű Bash script is megbirkózik és ott lényegesen rövidebb a kód:

cat text.txt \
|tr -d '[:punct:]' \
|sed 's/[[:upper:]]*/\L&/' \
|tr ' ' '\n' \
|wc -l

Az első sor beolvassa az adott szöveget, a második kiveszi a központozást, a harmadik gondoskodik arról, hogy a kisbetű-nagybetű ne számítson külön szónak (pl. mondat eleji “Kalap” és mondatközepi “kalap”) – a negyedik sor, minden szót egy új sorba tesz, az utolsó pedig megszámolja, hogy hány sorunk van.

Ha az egyedi szavakra vagyunk kíváncsiak, ki kell szednünk a szóismétléseket és minden egyedi szót csak egyszer számolni. Ehhez beteszünk az utolsó előtti sorba még egy kódot.

cat text.txt \
|tr -d '[:punct:]' \
|sed 's/[[:upper:]]*/\L&/' \
|tr ' ' '\n' \
|sort -u \
|wc -l

A szótövezés (azaz a “kalaptól” és “kalapban” szavak hasonlóságának felismertetése) egy kicsit bonyolultabb folyamat, úgyhogy abba nem is nagyon mennék bele.

Még a top 100 kifejezés listának a kódja lehet érdekes. Ez írja ki, hogy pl. mi volt az Ady Endre által legtöbbször leírt száz szó.

cat text.txt \
|tr -d '[:punct:]' \
|sed 's/[[:upper:]]*/\L&/' \
|tr ' ' '\n' \
|sort |uniq -c |sort -nr| head -100

Ha csak a Toldit elemezzük, akkor a legtöbbször használt kifejezések (az ún. stop-word-öket, mint pl. “a”, “az”, “hogy”, “is”, stb… eltávolítva):

65 Toldi
54 Miklós
29 jó
28 király
27 György
21 Isten
19 szépen

Egyébként a kutatás relatív egyszerű volt, az egész elemző script tokkal vonóval 40 sor — de jellemzően maga az adat megszerzése (versek lekérése) és letisztítása volt ebből 35 sor, a számláló megírása pedig 5.

Ígérem, ez volt a legtechnikaibb cikkünk! :-)

Tomi

Big Data webinár II. rész — STARTUP + ADAT — stratégiák nem csak startup-oknak

(Ha nem voltál az I. részen, ne ijedj meg, anélkül is érteni fogod) A II. rész több stratégiával, több módszertannal és több esettanulmánnyal.
Itt tudsz regisztrálni:     adatlabor3.eventbrite.co.uk

Adatlabor logoIdőpont: Március 18. szerda 18.00-19.30

A tartalma pedig:
Az adatelemzés az (online) üzleti stratégia szerves része. Ezzel értheted meg a felhasználóidat: mik a problémáik és hogyan tudsz nekik ebben segíteni. Ez pedig hosszú (és rövid) távon számodra is profitábilis. De hol is érdemes kezdeni? Ez a webinárium rendet rak a káoszban és olyan módszertanokat és példákat mutat be, amelyek a gyakorlatban hasznosíthatóak.
(Note: a webinárium akkor is hasznos, ha éppen nem startup-on dolgozol, de szeretnéd az online üzletedbe bevezetni az adatvezérelt szemléletet.)

Tárgyalt módszertanok:
– AARRR (Dave McClure): Tesztelési stratégiák és fejlődési pontok adatvezérelt meghatározása.
– 4DX (The 4 Disciplines of Execution): Mérhető célok beállítása, a köztük levő összefüggések megkeresése és a célirányos üzletfejlesztés.
– E-commerce startup mérések
– A/B tesztelés: best practice-ek (és worst practice-ek).
– Mi az a Big Data igazából? Mikor van rá szükség? Hogyan lehet implementálni?
– Esettanulmányok

A gyakorlatban az Adatlaborral mi magunk is ezeket az adatelemzési stratégiákat és módszertanokat használjuk, a saját ügyfeleinknél, úgyhogy 100%-osan valós üzleti példákból merítkezünk.
75 perc + Q&A

Mester Tomi adatlabor
fotó: Hámori Zsófia

Előadó:
Mester Tomi üzleti intelligencia elemző és tanácsadó, az adatlabor.hu alapítója és szakmai vezetője. Növekedésben levő cégeknek segít az adatelemzési és big data stratégiájuk kidolgozásában – továbbá abban, hogy ezeket az eszközöket a vevőszerzés, a magasabb vevőelégedettség és végeredményben persze a több profit elérésére tudja felhasználni minden partnere. Korábban a Prezi.com-nak dolgozott. Jelenlegi ügyfelei az e-kereskedelem, az online média és az online szolgáltatások területéről érkeznek.
Másik szenvedélye a nyilvános beszéd. Alapítótagja és CC-szintű beszélője az első magyar nyelvű Toastmasters klubnak. Előadó továbbá adatelemzés témában olyan fórumokon, mint a TEDx, BI Forum, Internet Hungary, PechaKucha Nights, Global E-commerce Summit 2015 @Barcelona, stb. Több info itt.

Ára: 4000 ft + ÁFA

Tehát a jelentkezés mégegyszer:
LINK: adatlabor3.eventbrite.co.uk
ÉS A GYORS REG:

Tomi

E-commerce adatelemzés interjú – TESCO

Tesco adatelemzés interjúBarabás Lenkével, a Tesco Customer Loyalty and Personalisation Manager-ével beszélgettem a napjaink trendejeiről és arról, hogy hogyan reagál erre a Tesco. Lenkével egy Big Data workshopon találkoztam, ahol mindketten előadtunk. Az ottani prezentációja a Klubkártya programról szólt és ez keltette fel az érdeklődésemet. Ennek működéséről, előnyeiről és big data vonatkozásáról is mesélt nekem részletesen…

Barabás Lenke, TESCO
Barabás Lenke, TESCO

– Te pontosan mivel foglalkozol a Tesco csapatában?
– A Tesco-n belül ez egy teljesen új pozíció, így folyamatosan vannak új és új feladatok. Két fő vonalát emelném ki. Az egyik, hogy minél személyesebb ajánlatokat tudjunk adni a vásárlóinknak. Első lépésként a heti hírlevelek számát szeretnénk csökkenteni. Arra törekszünk, hogy egy hírlevelet kapjanak a vásárlók, de az valóban személyre szóló legyen. A másik a lojalitásépítés. Lojalitásépítés alatt pedig azt értem, hogy a már lojális vásárlókat próbáljuk megtartani, jutalmazni. Főleg jutalmazó rendszerekben gondolkodom – pl. klubokat alapítani, olyan dolgokat csinálni, amivel a lojális vásárlóink egy kis pluszt kaphatnak, különlegesebb bánásmódban részesülhetnek.

– És ha jól tudom, ezekhez használtok adatokat, méghozzá nem is keveset. Mik a főbb irányvonalak?
Az egyik főfókusz most a személyre szóló hírlevél elindítása. A Clubcard adatbázisra tudunk támaszkodni, hiszen ott látjuk, hogy milyen vásárlási szokásai vannak az egyes vásárlóinknak. Ez az egyik nagy adatbázisunk, ami egy párszázezres adatbázist jelent, és azon dolgozunk, hogy ez egyre nagyobb legyen. Fontosnak tartom megemlíteni, hogy a Clubcard-dal mindig tranzakció szintű adatokat nézünk.

– És azt, hogy férfi-e vagy nő? Hogy hány éves?
– Vannak demográfiai adatok a Clubcard-hoz, de ezeket nem használjuk, amikor ajánlatokat, aktivitásokat tervezünk, küldünk. Tranzakciókat nézünk, és ez alapján küldjük az ajánlatokat, a megszemélyesítésre már csak a kiküldésnél kerül sor. Azért sem támaszkodunk demográfiai adatokra, mert egy családban akár többen is használhatják ugyanazt a Clubcard-ot, így szinte lehetetlen, hogy kiderítsük, ki áll a kártya mögött. Viszont családon belül biztosan mindenki megkapja a számára értékes ajánlatot a tranzakciók alapján. Így azt gondolom, ez sokkal relevánsabb információ, mint az, hogy nő vagy férfi a kártya tulajdonos vagy az, hogy hány éves az illető. Természetesen ez sem elhanyagolható információ, de azt már egyéb célokra használjuk.

– Tehát “mutasd a kosarad és megmondom ki vagy”?
– Nagyjából igen, lehet következtetni demográfiai adatokra, de nem szoktunk, mert ebben az esetben a lényeg, hogy mit vásárol, hogy személyre szóló ajánlatokat tudjunk küldeni. Volt egy 5 hetes teszt periódusunk személyre szóló hírlevél küldésre, és kiderült, hogy nagyon szépen teljesít. Kb. háromszoros volt maga a hírlevél-megnyitási arány. Ez alapján valószínűsíthető, hogy ez egy nagyon hatékony dolog, de még több számra és pontosabb tesztekre van szükségünk, hogy többet tudjak róla mondani.

– Mi a projekt jövője? Mik az “álmok”?
– Az álom az, hogy mindenki egy személyre szóló hírlevelet kapjon heti szinten. Ne nyolcat, hanem egyet, de abban valóban csak az legyen, ami őt érdekli.

– Ha ezek a perszonalizált hírlevelek elindulnak, akkor az azt jelenti, hogy ha én pl. sok kenyeret, virslit és mustárt vettem, akkor nekem ezt a kenyeret-virslit-mustárt fogjátok ajánlani olcsóbban? Vagy inkább termékcsatolással melléteszitek, hogy érdekelhet a majonéz, az uborka, stb?
– Ha akciós az uborka vagy a mustár, és rendszeres vásárlója vagy a terméknek, akkor arról biztos, hogy kapsz ajánlatot hírlevélben. A későbbiekben jöhetnek egyéb extra ajánlatok is, rengeteg lehetőség rejlik még ebben, de pontosan nem tudom még megmondani, hova juthatunk rövid távon.

– Olyasmit terveztek, hogy ha valaki egy terméknek a rajongója, pl. sok fekete pólót vesz, akkor ő személy szerint kap akciót a fekete pólóra?
– Igen, ilyen jellegű aktivitásokat már tudunk csinálni, ún. kasszakuponokon keresztül. A Clubcard-os vásárlókat már elkezdtük ezzel jutalmazni. A példádnál maradva, ha látjuk, hogy vásároltál fekete pólót, akkor egy aktivitás keretében be tudjuk azt állítani, hogy a legközelebbi vásárlásod során kapj egy olyan kupont, amivel kedvezményesen veheted meg a kedvenc pólód egy legközelebbi vásárlásod esetén. Ebben is sok lehetőség rejlik, még a tesztfázisban vagyunk, és sokat tanulunk.

– Tehát mondhatjuk, hogy nálatok az adatelemzés és a big data arra megy rá, hogy személyesítsétek a tömegkommunikációt…
– Egyrészről igen, de nem csak a kommunikációt, hanem az ajánlatainkat is. A személyes véleményem az, hogy akkora a piaci verseny már az élelmiszer piacon (is), hogy mindig meg lehet venni az alapvető élelmiszereket, nem élelmiszereket akcióban. A mi célunk ennél több, szeretnénk, ha a vásárlóink olyan kedvezményeket kapnának, ami számukra fontos és releváns, akár állandó jelleggel megvehessék kedvenc terméküket kedvezményesen.

– Köszönöm szépen az interjút!

 

Big Data/BI webinár ismétlés!

Közkívánságra mégegyszer megtartjuk a Business Intelligence/Big Data webinar sorozatunk I. részét!
Az I. rész a “Smart Tool-ok (minden, ami nem Google Analytics)” címet kapta.
Itt tudtok regisztrálni:     adatlabor2.eventbrite.co.uk

Adatlabor logoIdőpont: Febr 18. szerda 18.00-19.30

A tartalma pedig:
Eszközök, szoftverek, smart tool-ok és praktikák, amelyeket rendszeresen használunk a big data, az adatelemzés és az üzleti intelligencia gyakorlása közben.
Konkrét, valós üzleti esettanulmányokkal.

Tárgyalt szoftverek és módszerek:
– Mouseflow (és konkurensei)
– Optimize.ly (és konkurensei)
– Marketing A/B teszt
– Linkkövetés (utm, bit.ly, stb…)
– Mini-piackutatások
– Najó és egy kis Google Analytics (de csak az expertebb dolgok ;-))

Csak olyan dolgokról lesz szó, amit rögtön a webinar után akár Te is meg tudsz csinálni! Kódolást és bonyolultabb fogalmakat nem érintünk (az majd jön legközelebb :-)).
75 perc + Q&A

Mester Tomi adatlabor
fotó: Hámori Zsófia

Előadó:
Mester Tomi üzleti intelligencia elemző és tanácsadó, az adatlabor.hu alapítója és szakmai vezetője. Növekedésben levő cégeknek segít az adatelemzési és big data stratégiájuk kidolgozásában – továbbá abban, hogy ezeket az eszközöket a vevőszerzés, a magasabb vevőelégedettség és végeredményben persze a több profit elérésére tudja felhasználni minden partnere. Korábban a Prezi.com-nak dolgozott. Jelenlegi ügyfelei az e-kereskedelem, az online média és az online szolgáltatások területéről érkeznek.
Másik szenvedélye a nyilvános beszéd. Alapítótagja és CC-szintű beszélője az első magyar nyelvű Toastmasters klubnak. Előadó továbbá adatelemzés témában olyan fórumokon, mint a TEDx, BI Forum, Internet Hungary, PechaKucha Nights, Global E-commerce Summit 2015 @Barcelona, stb. Több info itt.

Ára: 4000 ft + ÁFA

Tehát a jelentkezés mégegyszer:
LINK: adatlabor2.eventbrite.co.uk
ÉS A GYORS REG:

Megjegyzés:
Az utána levő héten (febr 25., szerda) jön a második rész, ami kifejezetten adatelemzési stratégiákról és modellekről fog szólni! Ha érdekel:
adatlabor3.eventbrite.co.uk
Tomi

Business Intelligence/Big Data webinar I. rész

Közkívánságra elindítjuk a Business Intelligence/Big Data webinar sorozatunkat!
Az I. rész a “Smart Tool-ok (minden, ami nem Google Analytics)” címet kapta.
Itt tudtok regisztrálni:     adatlabor.eventbrite.co.uk

Adatlabor logoIdőpont: Jan 21. szerda 18.00-19.30

A tartalma pedig:
Eszközök, szoftverek, smart tool-ok és praktikák, amelyeket rendszeresen használunk a big data, az adatelemzés és az üzleti intelligencia gyakorlása közben.
Konkrét, valós üzleti esettanulmányokkal.

Tárgyalt szoftverek és módszerek:
– Mouseflow (és konkurensei)
– Optimize.ly (és konkurensei)
– Marketing A/B teszt
– Linkkövetés (utm, bit.ly, stb…)
– Mini-piackutatások
– Najó és egy kis Google Analytics (de csak az expertebb dolgok ;-))

Csak olyan dolgokról lesz szó, amit rögtön a webinar után akár Te is meg tudsz csinálni! Kódolást és bonyolultabb fogalmakat nem érintünk (az majd jön legközelebb :-)).
75 perc + Q&A

Mester Tomi adatlabor
fotó: Hámori Zsófia

Előadó:
Mester Tomi üzleti intelligencia elemző és tanácsadó, az adatlabor.hu alapítója és szakmai vezetője. Növekedésben levő cégeknek segít az adatelemzési és big data stratégiájuk kidolgozásában – továbbá abban, hogy ezeket az eszközöket a vevőszerzés, a magasabb vevőelégedettség és végeredményben persze a több profit elérésére tudja felhasználni minden partnere. Korábban a Prezi.com-nak dolgozott. Jelenlegi ügyfelei az e-kereskedelem, az online média és az online szolgáltatások területéről érkeznek.
Másik szenvedélye a nyilvános beszéd. Alapítótagja és CC-szintű beszélője az első magyar nyelvű Toastmasters klubnak. Előadó továbbá adatelemzés témában olyan fórumokon, mint a TEDx, BI Forum, Internet Hungary, PechaKucha Nights, Global E-commerce Summit 2015 @Barcelona, stb. Több info itt.

Ára: 4000 ft + ÁFA

Tehát a jelentkezés mégegyszer:
LINK: adatlabor.eventbrite.co.uk
ÉS A GYORS REG:

Tomi