adatelemzés címkével jelölt bejegyzések

Az IT és az üzlet keresztútja

“…”szerencsére” jött a válság. Ezt megelőzően a sales terület hasraütés-szerűen mondta meg, hogy mikor és hol mit fog árulni és hogyan. Nem mértek semmit, mert látták, hogy jönnek az új ügyfelek, jön a volumen. Nem volt arra igény, hogy elemezz, jött a pénz és ettől mindenki boldog volt. Aztán minden megváltozott…”

lindwurm.tamas
Lindwurm Tamás

A B-DATA2 Konferencia egyik előadója Lindwurm Tamás lesz, akivel egy rövid interjút is készítettünk, hogy jobban megismerjétek.

Tamás 2008 óta foglalkozik adatelemzési, döntéstámogatási  és adatvizualizációs feladatokon a pénzügyi és telekommunikációs szektorban. Részt vett többek között CRM-bevezetés, adatpiac-építés, kampányoptimalizálás, ügyfélérték-számítás és szegmentációs projekteken.

Az IT és az üzlet keresztútja bővebben…

Első adatvezérelt projekt

Sok cél, sok adat, sok elemzési lehetőség, sok információ… Egy már működő vállalkozás esetében egyik pillanatról a másikra adatokat bevonni a döntési folyamatokba nem is olyan könnyű. Ennek az oka pedig az, hogy rengeteg fajta adatvezérelt projekt létezik. Így kiválasztani az elsőt, ami igazán hasznos, nehéz.
Most felsorolok 3 projektet, amelyek az elmúlt évek tapasztalatai alapján jó első lépések lehetnek az adatvezéreltség rögös útján.

1. Konverzió optimalizálás AB-teszttel

Ez a projekt iszonyatosan egyszerű és rögtön látványos eredményt hoz, ami nem más mint a konverziónövekedés. Azt pedig mindenki szereti. :-) (Az AB-tesztelésről már többször is írtam, úgyhogy most a részletekbe nem mennék bele.) A folyamat az, hogy:

I. Megkeresel egy UX-problémát a honlapodon.
II. Keresel rá alternatív megoldásokat.
III. Teszteled, hogy melyik a legjobb megoldás.
IV. A legjobb megoldást kiteszed élesbe.
V. Újrakezded egy új problémával.

Amit sosem szabad kihagyni, az az AB-tesztet megelőző kutatás. Sokszor látom, hogy az emberek elkezdenek csakúgy megérzésből AB-tesztelni. Néha összejön, néha pedig nem… Amit mi szeretünk csinálni: teszt előtt hőtérképes elemzés, Google Analytics elemzés és legalább 3 user-teszt egy adott oldalra. Ez alapján sokkal célzottabb és hatékonyabb AB-teszteket tudunk összerakni.

2. Stratégia adatalapon

A hosszútávú döntésekben segít. Éppen emiatt nem olyan látványos és azonnali az eredménye. Amiért mégis szokták szeretni a döntéshozók, mert konkrét számokat látnak a stratégiáik mögött.

Sokfajta metódus létezik. Én a 4DX módszertant találtam eddig  a legjobbnak. Ennek a lényege, hogy van egy főcélod (pl. bevétel?) és keresel ehhez támogató alcélokat (ún. lag-ek) és az alcélokat támogató tevékenységeket (ún. lead-ek). A struktúra akkor működik, ha minden eleme mérhető is.

3. Triggerek és automation-ök

Ebben a pontban általában e-mail marketing-ről beszélünk. De lehet szó push-notification-ökről, sms-kampányról, in-site pop-up-okról, akármiről.

A lényeg, hogy ha követed a felhasználóid viselkedését, akkor bizonyos viselkedésminta aktiválhat bizonyos üzeneteket. Pl. ha látod, hogy egy felhasználó 100-szor megnézte a landing-edet, de még egyszer sem vásárolt onnan, akkor küldhetsz neki egy levelet, hogy személyes support-ot kínálsz neki, hogy könnyebb legyen a vásárlás.
Ha látod, hogy egy másik felhasználó vásárolt nálad 10 terméket, küldhetsz neki egy e-mail-t, hogy köszönöd a hűségét, itt egy 50%-os kupon, etc…

Ezek az ún. triggerek azonnali és látványos hatást fejtenek ki a lemorzsolódó felhasználók visszatérésére, hiszen személyre szabott üzenetet küld a megfelelő embereknek a megfelelő pillanatban.

Merre tovább?

Ez a 3 projekt (1. kutatás + AB-teszt, 2. Stratégia felépítés, 3. Trigger-ek beállítása) az, ami legjobb első adatvezérelt projektek között van. Látva az eredményességüket pedig könnyebb már továbblépni a saját adatbázisok felépítése és a finomabb (és még hasznosabb) adatos projektek felé.

Többet akarsz tudni a témáról? Gyere el az Adatvezérelt Marketing Tréningünkre!

Tomi

A nagy Big Data félreértés

“A Big Data olyan mint a tiniknél a szex:

  1. mindenki erről beszél
  2. senki sem tudja igazán, hogy hogyan kell csinálni
  3. mindenki azt hiszi, hogy  a többiek csinálják
  4. ezért mindenki azt mondja, hogy ő is csinálja.”

(Dan Ariely)

Biztosan hallottad már a fenti mondást. Félig vicces, de félig igaz is. Manapság már a csapból is a Big Data folyik és ennek a legfőbb oka nem a technológia terjedése, hanem az, hogy az újságírók és a marketingesek rájöttek, hogy ennek a két szónak az említésével szinte bármit el lehet adni. A másik oldalról viszont a valódi adat-szakemberek ritkán írnak közérthető cikkeket a témában, hiszen őket a technológia érdekli.
Ezt az űrt szeretném betölteni ezzel a rövid kis cikkel. Mi az a Big Data? Érthetően, de marketing bullshit nélkül.

Small Data

Kezdjük onnan, hogy mi az a small data? Az adatelemzés alapjainak alapjait a népszámlálás teremtette meg, ahol már évszázadokkal ezelőtt is kérdezőbiztosok mindenféle érdekes dolgokat kérdezgettek az emberektől. Ennek a következő evolúciós lépcsője a kérdőívezés lett, ami mind a mai napig egy gyakran használt piackutatási módszer. Mi a baj a kérdőívezéssel? Egyrészt a mintavétel: még a legprecízebb, legkörültekintőbb mintavétel is tévedhet. Hogyan reprezentálhatná hűen 2.000 ember válasza egy millió ember gondolatait? Persze vannak korrekt statisztikai módszerek, de a hibázás lehetősége mindig fennáll. A másik probléma a válaszok minősége. Az emberek hazudnak és gyakran nem is tudják, hogy hazudnak. Ha Téged megkérdeznek, hogy mi a kedvenc színed, lehet, hogy ma azt mondod, hogy a piros… aztán 1 hét múlva rájössz, hogy amúgy az összes pólód sárga és elbizonytalanodsz. De addigra már leadtad a válaszodat, a nagy üzletemberek pedig már döntéseket hoztak az alapján.

Ezek tipikus small data-s problémák.

Majdnem Big Data

Ezekre a problémákra ad választ a big data-s gondolkodás mód. Ha big data alapon gondolkozunk, akkor nem megkérdezzük az embereket, hanem a megfigyeljük viselkedésüket. Így nem tudnak nekünk (és maguknak) hazudni. Emellett pedig nem csak 2.000 embert figyelünk meg, hanem az összeset.

Értelemszerűen ez a legkönnyebben a számítástechnikai és az ahhoz kapcsolódó területeken történhet meg, ahol minden kattintásból és egérmozgásból új adatsor születhet.

Ezen a logikán keresztül születtek meg az olyan ismert és használt projektek, mint a Google Analytics, a CrazyEgg vagy a Mixpanel.

Bár ezekben a projektekben minden felhasználó/látogató viselkedését letárolták, de még mindig nem számítanak Big Data-nak, mivel relatív még mindig elég kicsi adatmennyiségről és korlátok között mozgó, nem túl rugalmasan kezelhető adathalmazokról beszélünk (pl. csak az előre meghatározott riportokat lehet legyártani, nem lehet kettőt kombinálni)… De akkor mi a tényleg nagy?

Big Data

Az elmúlt évek (évtizedek) egyik fontos trendje volt, hogy az adattárolás ára folyamatosan és nagy erővel csökkent. Mára elértük azt az állapotot, hogy olyan olcsó adatot tárolni, hogy inkább elmentünk mindent és nem törlünk ki semmit. És ez a kulcsa a Big Data-nak! Letárolunk minden adatot, amit csak tudunk és nem törlünk ki belőle semmit, még évekre visszamenően sem. Ezt jellemzően már nem Analytics-szerű programokba pakoljuk, hanem saját adattáblákba (pl. SQL) vagy log-okba.

Így előbb vagy utóbb akkora adatbázisok jönnek létre, amivel egy számítógép már nagyon nehezen birkózik meg. Egy terabájtos nagyságú adathalmazt Excel-ben vagy SPSS-ben nyilván meg se próbálunk megnyitni. De egy rendes SQL lekérdezés is akár órákon, sőt napokon keresztül futhat rajta. Egész egyszerűen akármivel próbálkozik az ember (R, Python, etc.), azt látja, hogy elérte a számítási kapacitás tetejét és nem tudja értelmes időn belül feldolgozni az adatait.

És ekkor jönnek képbe a Big Data technológiák – aminek az alapja, hogy az adatainkon innentől fogva nem egy számítógép dolgozik, hanem akár több tíz vagy száz vagy még több. Legtöbbször ezek a cluster-ek könnyen és szinte végtelenül skálázódnak: minél több az adatunk, annál több erőforrást tudunk bevonni a feldolgozásába. Így újra normális idő alatt tudjuk elemezni az adatainkat. Viszont sok-sok számítógépet egybekötni és egyszerre dolgoztatni egy elemző script-en: új infrastruktúrát és új technológiát igényelt. Így született meg a Big Data technológiák széles tárháza és így kerültek be a köztudatba az olyan fogalmak, mint a Hadoop, a YARN, a Spark, a Pig és a többi divatos Big Data technológia.

Big Data evolúció cégen belül

Nézzük egy startup esetében, hogy működik a Big Data evolúció.

1. Először a korai szakaszban nincs adatelemző a cégnél, de nem akarnak vakon repülni. Ezért fel-setup-olnak egy Google Analytics-et, egy Mixpanel-t, meg egy CrazyEgg-et és nézegetik az adataikat.

2. Megvan az első 10.000 felhasználó. A cégvezetés rájön, hogy a Mixpanel és a CrazyEgg kezd drága lenni, meg amúgy sem mutatnak elég részletes riportokat. Így elkezdenek saját SQL táblákat építeni és szabad szöveges log-okat gyártani. Ezt pedig valaki elemezgeti, különbözős SQL, Python vagy R script-ekkel.

3. Továbbra is növekszik a felhasználószám és az elemző(csapat) ekkor már arra panaszkodik, hogy 10-20 perc alatt sem futnak le az elemző script-jeik. Aztán, amikor elérik a több órás futás időket, rájönnek, hogy szükség lesz egy Big Data technológiára és elkezdik guglizni, hogy mi is az a Hadoop… :-)
Remélem ez a rövid összefoglaló segít eloszlatni egy kicsit a ködöt a Big Data mítosz körül. Ha pedig több tudásra van szükséged a témában, a szeptember 17-i Big Data tréningünkre még van 2 hely.

Hamarosan folytatom a témát egy új cikkel! Ha értesülni akarsz róla, iratkozz fel!

Tomi

Big Data könyv 1. rész – Mit érdemes olvasni?

A nyáron volt egy kis időm olvasgatni, így hát beszereztem több Big Data könyvet is!

Big Data Könyv 1 - Schönberger, Cukier1. Viktor Mayer-Schönberger & Kenneth Cukier: Big Data

értékelés: 2/10
Őszintén: nagyon megbántam, hogy rászántam az időmet erre az írásra. 200 oldalon keresztül sztorizgat, hasonlatokat hoz – néha nem is Big Data-ról – és a tényleges tartalmát kb 5 oldalban össze lehetne foglalni. A stílusa élvezhetetlen, nagyon szájbarágós, folyamatosan ismételgeti önmagát – ráadásul olyan dolgokban (korreláció vs. kauzalitás), amiben nem is feltétlenül van igaza. A jó történeteket (Google Flue Trends, Netflix, Amazon, etc.) egyébként már mind-mind olvashattuk online a kiemelt hírek között is az elmúlt 10 évben.
Azoknak ajánlom, akik szeretnének egy új – trendi – társalgási témát bedobni az esti borozgatásokhoz a baráti társaságban… De gyakorlatiasságra vagy arra, hogy megtudd, mi az a Big Data, ne számíts! (Ez csak azért szomorú, mert – megtévesztő módon – ez a könyv címe.)

Big Data könyv 2 - Lean Analytics2. Croll & Yoskovitz: Lean Analytics

értékelés: 9/10
Ellentétben az előző könyvvel, ezt 100%-osan ajánlom mindenkinek, aki adatvezérelten akar akármilyen bizniszt felépíteni. Nem kifejezetten Big Data könyv, sokkal inkább adatstratégiáról szól, de nagyszerű gondolatindító. Ha big data-val fogsz dolgozni üzleti fókusszal, akkor egyértelműen alapmű. Ha pedig ugyanezt teszed, de technológiai fókusszal, akkor ez a minimum, amit látnod kell az üzleti oldalról.
A könyv legnagyobb előnye, hogy nagyon-nagyon gyakorlatias. 31 fejezeten keresztül leírja az összes módszertant, illetve tesztelési, elemzési és egyéb praktikákat, amelyeket a menő “data-driven” cégek már kipróbáltak és sikerrel alkalmaznak. Minden fejezet végén megkapod a saját kis “házi feladatodat”, így rövid távon gyakorlatba ültetheted a tudást.

Big Data Könyv 3 - I heart logs3. Jay Kreps: I heart Logs

értékelés: 8/10
Ha az előző írás a startégiai, akkor ez a technológiai alapmű. Jay Kreps a LinkedIn adatinfrastruktúráját építette fel és közben olyan Big Data technológiát támogató open-source projekteket hozott létre, mint a Kafka, a Samza vagy az Azkaban. Ebből sejtheted, hogy nagyjából a füzet minden szava arany. Sajnos elég rövid (50 oldal), de egyúttal tömör és lényegretörő is. Mire a végére jutsz, biztosan érteni fogod, hogy mi az a log, mi köze van ennek a Big Data-hoz és hogy hogyan kell összedrótozni egy normális adatinfrastruktúrát. Betekintést kaphatsz abba, amit a LinkedIn anno a saját bőrén tanult meg – ami nem csak érdekes, de iszonyatosan hasznos is.

A könyveket itt veheted meg:
I heart Logs: http://shop.oreilly.com/product/0636920034339.do
Lean Analytics: http://leananalyticsbook.com

Ha pedig tréningen vagy képzésen ismerkednél meg az alapokkal:

Big Data Képzés: KLIKK!
Adatvezérelt Marketing Képzés: KLIKK!

Tomi

Egy Játék mérése: gamification vs. retention

Múlt héten tettem ki az egyszamjatek.eu című kísérletünket a Facebook oldalunkra.

A játék nagyon egyszerű volt: mondj egy pozitív egész számot és ha ez a legkisebb olyan szám, amit más ember nem mondott Rajtad kívül, akkor nyertél. (Egyébként magát a játékot Mérő László találta ki.)
Összesen 7 forduló volt. Minden fordulóban 24 órán keresztül lehetett játszani. Így összesen 7 nyertest hirdethettünk.

A cél kettős volt:
1. Vizsgáljuk, hogy mi a nyertes stratégia. (Ezt ígéretemhez híven csak azoknak publikáljuk, akik játszottak. Sorry…)
2. Modellezzünk egy gamification alapú startup-ot és vizsgáljuk, hogy a játékélmény milyen hatással van a visszatérésre, illetve, hogy ezt hogyan lehet mérni.

Ezt a cikket azért írom, hogy ha esetleg online játék fejlesztésében vagy, láss néhány ötletet (konkrét példán keresztül is), hogy miket, miért érdemes mérni és elemezni.

Összehasonlítani nem akarom akármilyen más app vagy SaaS szoftver eredményeivel ezt a játékot, hiszen ez csak egy kísérlet, meg amúgy is tök más, mint akármi más, ami értelmes. :-) De azért nem árt ha tudod, hogy egyetlen mérőszám volt, amit boost-olni akartam az egész folyamat során: ez pedig a daily retention – azaz minél többször, minél sűrűbben visszahozni a játékosokat.

Ehhez egyetlen “marketing stratégiát” használtam – mindenki, aki adott napon játszott, kapott egy direkt email-t az eredményekről és egy linket a következő napi játékhoz. Ez a tool működött is – a leveleknek átlagosan 80%-os megnyitási aránya volt, amit kifejezetten erősnek mondanék.

mailchimp megnyitas és CTR - játék
mailchimp megnyitas és CTR

Nézzük mi a helyzet az aktív játékosok számával! Az első nap csináltam a játéknak egy nyitópromo-t (néhány csoportba és FB-oldara kitettem a játékot.) Így 296 emberrel indult a verseny az első nap. Ehhez csatlakozott az utolsó napig innen-onnan még 38 ember (valószínűleg meghívásos alapon, hiszen ezután már nem hirdettem). Tehát összesen 334-en játszottak.

A lenti ábra azt mutatja, hogy mekkora volt a napi visszatérés, azaz az előző nap játékosai közül hány % játszott az adott napon.

daily retention - egyszamjatek.eu - játék
daily retention – egyszamjatek.eu

Ha megfigyeled, két mélypont van. A 2. nap, amikor 30% körüli a retention és az 5. nap, ahol 50% körül van. A többi napon 60% felett megyünk, sőt az utolsó napokon felszökik 100% felé, ami azt jelenti, hogy olyanok is visszajöttek, akik régebben játszottak!
Ki találod mi történt a 2. és 5. napon? Elárulom, ezeken a napokon véletlen délután 4-kor küldtem ki a hírlevelet, amit reggel 9-kor kellett volna. Tanulság ebből a chart-ból: reggel kell kiküldeni a leveleket…

Nézzünk egy klasszikus kohorsz elemzést! Minden sorban az adott nap regisztrált user-eket látod és minden oszlopban azt, hogy hány maradt meg belőlük X nappal később.

kohorsz elemzés játék
kohorsz elemzés

Mi látszik itt? Az, ami már a retention riportból is elkezdett kiderülni. Az első napon regisztráltak, ha ki is hagytak egy-két napot, vissza-visszajönnek 2-3 nap után. Lehet, hogy az ideális játékciklus nem 1 nap lenne, hanem 2?

Kedvenc riportom: aktív user-ek vs. retaining user-ek.

aktiv user-ek vs. retaining user-ek
aktiv user-ek vs. retaining user-ek

Ahogy azt írtam, az első nap után már semmit sem tettem bele a marketing-be. Ez az ábra mutatja a legjobban: ha lecsökken a user bázis, akkor ott szűrve szépen csak a “legjobb” felhasználók maradnak bent. Nekik magas lesz a visszatérésük és valószínűleg ez a néhány (35-40) user volt az is, akik behozták az utolsó pár napon a +10 új user-t – mindenféle költségek nélkül.

2 érdekesség a Gamification hatásáról:
1. Volt egy feltűnő trend a nyertes játékosok körében. Ez a 7 játékos, miután nyertek, már sokkal kisebb eséllyel jött vissza játszani. Lehet, hogy őket valahogy máshogy kellett volna visszacsábítani egy második körre?

játszott - nyert - nem játszott
játszott – nyert – nem játszott

2. A Power User-eknek (azaz, azok a játékosoknak, akik mindennap játszottak), több mint 50%-a mindennap ugyanazt a számot játszotta meg. (Az egyik nyertes egyébként pont közülük került ki.)

———————————————————————————

Akárhogy is, számomra ez egy izgalmas kísérlet volt – sok olyan dolog kiderült belőle, amiket már máshol is mértünk, de a titoktartás miatt nem publikálhattam! :-)

Remélem hasznosnak találtad és ha szeretnél feliratkozni az Adatlabor hírlevélre, ne habozz!

Tomi

Miért szeretem az adatelemzést?

Mostanában – így félévzárás után – sokat gondolkoztam azon, hogy vajon miért is szeretem az adatelemzést?

3 dolgot találtam.

1. Tényeket közlünk.

Több weblap-dizájner ismerősöm is van. Legtöbbjük iszonyatosan tehetséges, szuper weblapokat dizájnolnak, működő, korszerű kódokat tesznek mögéjük – de valahogy mindig van legalább egy ember az ügyfél oldalán, akinek valami apróság nem tetszik. “Szerintem ez nagyon zsúfolt”. Ez “nem a mi stílusunk”. “Valahogy olyan kicsik a képek.”

Az adatelemzésben azt szeretem, hogy bár mi is ugyanazokkal a felületekkel foglalkozunk, mint a webdizájnerek – amit mi mondunk, az objektív és emiatt elég nehezen támadható. :-) Egész egyszerűen számokkal tudjuk megmondani, hogy mi az, ami működik, mi az ami kevésbé… és százalékra (vagy forintra) pontosan azt is ki tudjuk mutani, hogy mennyivel jobb ez a valami, mint a másik valami.

Még nem volt olyan ügyfelünk, akinek ha megmutattuk, hogy ha ez a gomb zöld és nem szürke, akkor az +30% bevételt jelent (persze ez csak egy sarkított példa), akkor arra azt mondta, hogy “Hmm… de ez a zöld nem a mi stílusunk.” Ez persze nem csak azért jó érzés, mert nem kell felesleges dolgokon veszekedni, hanem azért is, mert mindenki dolgát megkönnyíti az, ha tiszta tényszerű adatok alapján tud véleményt formálni.

2. Emberekkel foglalkozunk.

Annak ellenére, hogy a fenti bekezdés alapján az adatelemzés egy elég objektív szakmának tűnik, a valóságban szubjektumokkal fogalalkozunk. Emberi viselkedéssel. Emberi döntésekkel. Emberi dilemákkal.

Miért ide kattint valaki és nem oda? Miért veszi a drágább csomagot? Miért kattan rá egy termékre? Miért utál valamit, amit nem is ismer? Mennyire tudatos? Érdekli egyáltalán, amit modani akarunk neki? Megtalálja, amit keres? Miért viselkedik úgy, ahogy viselkedik?

Ezek a kérdések borzasztóan izgalmasak, mert az embernek a tudatos és tudatalatti gondolatait kutatják… Nem lehet mindig mindegyikre választ kapni, de ha csak egy nap egy rejtélyt sikerül feltárni, akkor már rögtön úgy érzi az (adatelemző) ember, hogy egy kicsit jobban érti, hogy embertársai, mit, miért, hogyan, mikor és meddig csinálnak… És ez jó érzés!

3. Minden nap tanulunk.

Hogy csak egy példát ragadjak ki: az elmúlt egy évben viszonylag sok webshop-pal dolgoztunk. Végigelemeztük és optimalizáltuk a felületeiket: landing oldalaikat, üzeneteiket, termék- és listaoldalaikat, kosárfolyamataikat. Tanultunk nap mint nap, az adatokra és a felhasználók reakcióira, viselkedésére támaszkodva.

Nem állítom, hogy mindent tudok az e-commerce bizniszekről, de az biztos, hogy – ha belenézek az adataikba – bármelyik webshop-nak tudnék legalább egy olyan dolgot mondani, amit a többiek jobban csinálnak, elleshetnek, átvehetnek tőle.

Ezeket a dolgokat pedig nem lehet tankönyvől vagy egyetemeken megtanulni. Ezeket a dolgokat folyamatosan kutatni és mérni kell. Idézőjelesen “a vásárlóktól kell megtanulni”. Azért szeretem az adatelemzést, mert erre a tanulásra is lehetőséget ad.

Úgyhogy egyelőre maradunk a szakmában.
Ha szeretnél szakmai cikkeket olvasni a témában, iratkozz fel a hírlevélre és értesítünk az új bejegyzésekről!

Tomi

Mobil App mérések – miért, mit és hogyan?

Tudtad, hogy a letöltött mobil app-ok 80%-át az első használat után törlik a felhasználók a telefonjukról? Hogy bent maradj a kellemes 20%-ban, elengedhetetlen, hogy reagálj a user-eid viselkedésére! Ehhez pedig mérned kell. Ugyanúgy, mint desktop-os internetes alkalmazásoknál… habár az elmélet és a gyakorlat is egy kicsit más. Ebben a cikkben leírom azt a néhány best practice-t, amivel már könnyen el tudod kezdeni a mobil app-od mérését!

MIÉRT MÉRJEM A MOBIL APP-OM?

Az egyik legfontosabb kérdés, hogy miért is mérsz? Erről már többször is írtam, de nem győzöm mindig hangsúlyozni, hogy akármit is mérsz: legyen egy jól definiált üzleti célod!
Ezt a célt állapotban két dolog határozza meg (Rajtad kívül). Az egyik, hogy milyen bizniszben vagy, a másik pedig hogy milyen szakaszában a növekedésnek.

Ha pl. egy érett e-commerce bizniszen dolgozol, akkor az egyik legfontosabb célod a Revenue, azaz a bevételed lesz.
Ha egy korai fázisú startup-on, akkor inkább az engagement-re és az activation-re fókuszálj, azaz arra, hogy a felhasználók egyáltalán megértsék a termékedet és elkezdjék használni – no meg persze, hogy elégedettek legyenek vele.
Egy feltörekvő média oldalnak pedig általában a retention-re fekteti a hangsúlyt, tehát a visszatérő látogatók számára és a visszatérések sűrűségére.

Ha megvan a célod, akkor már könnyen választ adhatsz a miért-re. Azért mérsz, hogy ezt a célt minél könnyebben elérd és ha nem sikerül, akkor megértsd, hogy miért nem sikerült. És persze, hogy tudd, hogy hol, mikor, mit és hogyan kell változtatnod.

MIT MÉRJEK A MOBIL APP-OMBAN?

Egy mobil app persze elég speciális biznisz. Van egy-két dolog, amit a legtöbben mérnek és ami gyakorlatilag kikerülhetetlen, ha ezen a területen dolgozol. A 3 leggyakoribb:

1. Onboarding funnel

Mobil App Onboarding Funnel
Mobil App Onboarding Funnel

Ahogy a képen is látszik, az onboarding során lépésről lépésre kiesnek az emberek. pl. 1300-an letöltik az app-ot, 800-an elindítják, 400-an beregisztrálnak, 100-an pedig elkezdik használni tényleg a terméket, stb, stb… A lényeg, hogy lásd, hogy hol esnek ki a legtöbben és, ha ez a szám nagyon nem illik az elképzeléseidbe, akkor tudd, hogy ott valamit változtatnod kell.

A mobil app-oknál a legtöbb onboarding funnel így néz ki.
1. lépés: Letöltések száma (pl. 1000 db)
2. lépés: Launch (pl. 800 db)
3. lépés: Regisztráció (pl. 600 db)
4. lépés: Elkezdik használni a terméket (pl. 400 db)
5. lépés: Végére érnek az első körnek, a tanulási (más néven onboarding) folyamatnak (pl. 200 db)

Az 5. lépés egyébként trükkös, ezért szét szoktuk bontani 3-4 allépésre. Akkor vesszük úgy, hogy egy felhasználó elérte az 5. lépést és “onboarded” lett, ha már tudjuk, hogy minden olyan funkciót használt, ami kell ahhoz, hogy értse a termék előnyeit.
pl. ha egy idegenvezető mobil app-od van, ami a füledre mondja egy városban, hogy merre menj és mit kell tudni a nevezetességekről, akkor valami ilyesmi lehet az onboarding funnel-ed vége:

4. lépés: Kiválaszt a user egy túrát.
5. lépés: Odamegy a túra kezdőpontjára.
6. lépés: Elindítja az audio guide-ot.
7. lépés: Eljut a túra felére.
8. lépés: Végigér a túrán.

Aki végigért a túrán, nagy eséllyel találkozott az app összes főfunkciójával és érti, hogy mi a jó benne. Utána, hogy újra használja-e már, az egy másik kérdés.

2. Retention – visszatérés

Az egyik legütősebb metrika a felhasználó elégedettség vizsgálatára: a visszatérések száma és aránya. Tehát azok közül, akik múlt héten használták az app-odat, hányan használják újra. Itt nem feltétlenül megnyitásról beszélünk, hanem pl. egy core-feature használatáról (mint pl. a spotify-nál a zenelejátszás).

Itt is érdemes Neked definiálnod, hogy mi az ideális visszatérési sűrűség. Pl. ha egy média app-od van (, ahol naponta jelennek meg új cikkek,) vagy egy self-tracker alkalmazásod (, ahova minden reggel beírod, hogy milyen kedved van), akkor érdemes napi retention-t mérned. Egy Uber típusú app-nál a heti retention már logikusabbnak tűnik, egy repülőjárat kereső alkalmazásnál pedig akár a (több-)havi retention is indokoltnak tűnhet, hiszen a legtöbb ember amúgy sem utazgat minden héten vagy hónapban repülővel. (Azért törekedj minél kisebb retention time-ot belőni, mivel ha változtatsz valamit az app-odban és szeretnéd a retention-re gyakorolt hatását látni, mindig annyit kell majd várnod az első adatpontodra, amekkorára a retention definíciód be van állítva.)

Ha ez megvan, akkor nincs más dolgod, minthogy meghatározd a napi, heti vagy havi visszatérő látogatóid számát és arányát. És, hogy próbáld ezt a számot minél magasabbra tolni!

A retention címszó alatt még több dolgot is mérhetsz. Pl. a churn, azaz a lemorzsolódások aránya (pl. hányan uninstall-álták az alkalmazást, vagy hányan nem tértek vissza legalább a retention time-od 10-szereséig.) Vagy idetartozik az active/passive user-ek aránya. Azaz, hogy az összes user-edből hány % aktív.

3. Revenue – bevétel

A bevételt is többféleképpen mérheted. Itt persze attól is függ a dolog, hogy pontosan, hogy monetizálsz (fizetős app? reklámokból? in-app eladásokból? stb…), de a leg fontosabb alapmérések:

  • Első fizetésig eltelt idő
  • Fizetős user-ek aránya (hány ingyenes felhasználóra jut egy fizetős)
  • Havi átlagos bevétel user-enként
  • CLV – Customer Lifetime Value: Ez már egy összetettebb számítás, ami megmutatja, hogy az adott lemorzsolódási arányok és havi átlagos bevételek mellett egy user kb. mennyi pénzt termel az applikáción keresztül Neked onnantól, hogy beregisztrált, egészen addig, hogy letörli az app-ot.
    customer lifetime value mobil app mérés

Ez most csak 3 dolog – onboarding, retention és revenue -, de az alapok lefektetéséhez elég, aztán lehet továbbrészletezni még…

HOGYAN MÉRJEM A MOBIL APP-OM?

A millió dolláros kérdés: milyen eszközzel mérjem a mobil app-omat?
A jó hír hogy rengeteg lehetőség van…
Amit mindenképpen ajánlok az a Google Mobile Analytics. Ingyenes, mindent tud, ami kellhet. A korlátai pedig ugyanazok, mint a Google Analytics-nek. Csak report-olásra jó.
Ha szeretnél eggyel továbblépni, akkor itt is a Mixpanel az egyik legerősebb játékos a piacon. A Mixpanel-lel már viselkedés alapján tudsz szegmentálni, automatizált e-mail marketing-et beállítani, stb…
Ezeken kívül még rengeteg tool létezik, pl. az ingyenes Flurry Analytics vagy a kifejezetten crash-ek mérésére szolgáló Crashlytics – de azt is kevesen tudják, hogy az Optimizely-t is lehet használni mobil app AB-tesztelésre…

Egy szó mint száz

A lehetőségek és az eszközök adottak! Kezdd el mérni az app-odat és meglátod, sokkal tudatosabban, gyorsabban és eredményesebben tudsz majd fejlődni!
Sok sikert!

Ha szeretnél még ilyen cikkeket olvasni, iratkozz fel a hírlevelünkre!

Mester Tomi

Hogyan mérd az MVP-det?

Mostanában több viszonylag korai fázisú – MVP startoltatás előtti pillanatokban levő – startuppal is dolgoztunk 1-2-3 konzultáció erejéig – és mindig ugyanaz volt a kérdés: ha megvan az MVP, akkor hogyan – és főleg mit mérjünk?

Itt 3 főelv van:
1. Az OMTM-elv
One Metric That Matters – azaz egy darab célt jelölj ki! Egyet és ne többet! És ezt az egy célt helyezd a méréseid fókuszába. Hogy ez mi legyen azt iszonyatosan fontos már a startolás előtt, a legelején eldönteni.
Sok olyan cég van, aki megérzésből nyomja a dolgokat és adatok nélkül dönt. Aztán vagy bejön nekik vagy nem. De a másik véglet sem jobb – ha az ember 40 dolgot figyel egyszerre, akkor előbb-utóbb azon kapja magát, hogy egész nap csak a chart-okat nézegeti, de értelmes és értékes döntést még nem sikerült hoznia. Ha túl sok mindent mérsz, az összezavarhat. Legyen meg a fókusz: Mérj egy dolgot és határozza meg az, hogy merre mész tovább!

2. Engagement központúság
És hogy mi legyen az a bizonyos “Egy Mérés, Ami Számít”?
Természetesen ez a termékedtől függ, de MVP fázisban az biztos, hogy ez a metrika valahol az engagement, azaz a felhasználói elégedettség környékén keresendő.
NEM jó OMTM a regisztrált felhasználók száma. A regisztrált felhasználók száma semmilyen érdembeli visszajelzést nem ad a termékedről, maximum a value proposition-ödről (de azt jó esetben validáltad már eddigre landing page tesztekkel és kvalitatív vizsgálatokkal) vagy a marketing erődről. Egy csomó embert hallok büszkélkedni, hogy elérte a 1.000 (2.000, 5.000, stb…) regisztrált felhasználót. De ha ebből 10-15 aktív felhasználója van, akkor bizony az a 2.000 nem sokat ér.
NEM jó OMTM a bevétel nagysága/fizetések száma sem. Ehhez még túl korai szakaszban van a termék – úgyse fog elég pénz bejönni, akkor meg kár ezen stresszelni magadat.

A jó OMTM a termék használatára vonatkozik. Használják-e az emberek a főfunkcióidat? Minden funkciót használnak vagy csak néhányat? Úgy használják, ahogyan tervezted? És a legfontosabb: az első látogatás/regisztráció után visszajönnek mégegyszer használni a termékedet?

Jó mérőszámok lehetnek:
– az aktivált felhasználók száma  (pl. a Spotify-nál aktivált felhasználó az, aki beregisztrál és meg is hallgat legalább egy számot – a Prezinél aktivált felhasználó, aki beregisztrál, elkészíti és bemutatja az első prezijét, stb…)
– az aktivált felhasználók aránya (ugyanaz, mint a fenti, csak %-ban, hogy lásd, hogy a regisztráltak mekkora része aktiválódik)
– a visszatérő felhasználók aránya. Hányan döntenek úgy, hogy újra használják a termékedet?
– a visszatérés ideje. Mennyi idő után jönnek vissza az emberek? 1 nap, 1 hét, 1 hónap?

És emellett persze folyamatosan monitorozd azt, hogy melyik feature-öket használják az emberek és melyikeket nem.

3. Csináld meg egyszerűen!
Ebben a szakaszban az a lényeg, hogy gyorsan tudj mérni – ne tölts vele túl sok időt. Mivel lehet ezt megoldani? Ha csak nincs a kisujjadban a log-gyártás, akkor smart tool-okkal. Tök őszintén: valószínűleg egy jól beállított (konverziók, demográfia, stb.) Google Analytics is elég lesz. Ha pro akarsz lenni, akkor vagy egy Kissmetrics-et vagy egy Mixpanel-t felteszel az Analytics helyett, de ennél többre valószínűleg tényleg nem lesz szükséged ebben a szakaszban.

Mégegyszer összefoglalva:
1. Egy dolgot mérj!
2. Ez az egy dolog a termék használatára és a felhasználói elégedettségre fókuszáljon!
3. A lehető legegyszerűbben valósítsd meg (Analytics, Kissmetrics vagy Mixpanel)

Ha pedig egy szinttel feljebb lépnél, gyere el az Adatvezérelt Marketing Képzésünkre, ahol beszélünk linkkövetésről, AB-tesztelésről, UX kutatásról, a lepattanó user-ek visszanyeréséről és megannyi finomságról, ami ebbe a cikkbe már nem fért bele (még 6 szabad hely van)! :-)
http://adatlabor.hu/adatvezerelt-marketing-trening/

Mester Tomi

(Inspiráció: leananalyticsbook.com)

Vendégblog: A kis herceg és a Big Data – így kezdj neki

Pusztai Ádám Big Data cikkEheti vendégbloggerünk Pusztai Ádám, aki az adatlaboros egyetemista képzésünket is látogatta. Ádám egyébként Veszprémben végzett vegyészmérnökként, emellett pedig a Big Data az egyik fő érdeklődési területe… A következő profi összefoglalója a Honnan (és hogyan) tanuljunk a Big Data-ról címet is kaphatta volna.


“Ami igazán lényeges, az a szemnek láthatatlan.”
A kis herceg remekül összefoglalta az adatelemzés és adatbányászat lényegét. Az utóbbi időben egyre inkább érdekel ez a téma, ezért gondoltam, hogy utánanézek, ki mit mond róla, és ha beleásnám magam, akkor hogyan kezdjem el. Tuti recept szerintem nincs, de én így álltam neki:

Gyűjtögetés
A taktika az volt, hogy felütöttem a Google-t a “big data”, “how to start big data learning”, “big data 101” címszavaknál, és gondolkodás nélkül megnyitottam az összes első oldalas találatot. Ezek között voltak hasznos oldalak, kevésbé hasznosak, egyáltalán nem témába illőek (rossz SEO), és voltak összegyűjtött listák is.

Ezeket a találatokat bedobáltam egy dokumentumba, de ebben a formában teljesen használhatatlan volt, úgyhogy elkezdtem rendszerezni.  Ezután már csak azt kellett kitalálni, melyikkel résszel kezdjem.

A terv
Úgy gondoltam, egy kis ráhangolódás nem árt, ezért először olyan TED videókat kerestem, amik kapcsolódnak a témához. Itt találsz 13 előadást az adatokról, ebben a videóban pedig Hans Rosling elképesztő statisztikáit láthatod (mozgó bogyók, úristen mennyire menő!).
Többször is előkerült ez az infografika azzal a tanáccsal, hogy vallásos áhítattal kövessem. Nem mondom, hogy így van, de néha kelet felé fordítom és napjában ötször ránézek.

Első lépésként olyan forrásokat kerestem, amik helyre teszik a fejemben azt, hogy a Big Data mire jó, milyen technikákkal lehet és érdemes nekifogni ilyen elemzéseket végezni, és ehhez milyen technikai háttér szükséges részemről. Az ajánlások alapján a következő könyveket szereztem be (mindegyik ingyenesen elérhető):

Egyelőre az első hármat olvasom, aztán majd kiderül, hogy a keményebb programozás témájú könyvek hogy mennek. Annak érdekében, hogy ne csak könyvekből kelljen kihámoznom a lényeget, találtam online kurzusokat mind általánosan Big Datára, mind pedig programozásra is. A következőket ajánlom:

Online kurzusok / Big Data:

Online kurzusok / Programozás:

A végén járok a Codecademy-s Pythonnak és a CodeSchool-os R-nek, a Datacamp lesz a következő utánuk. Mindkét nyelv tetszik, sokban hasonlítanak a Matlabra, amit az utóbbi években használtam (nem feltétlen adatbányászatra).

Trello tábla gyűjtemény
Egy elvetemült figura készített egy hatalmas gyűjteményt, külön táblákra rendszerezve az ő forrásait, aszerint, hogy melyik cikk, online kurzus, könyv, blog, képregény(?), és a többi. Itt megtalálod.

Gyakorolni, gyakorolni, gyakorolni
Megvan a tudás a fejedben, a rendszerek a lelki szemeid előtt, most ki kellene próbálni mindezt. De hogyan? Ha nincs kéznél egy irdatlan méretű adatbázisod, ne ess pánikba, ilyeneket is találtam:

  • Quandl: ingyenes/korlátozott hozzáférés rengeteg adatbázishoz: https://www.quandl.com/
  • egyéb gyűjtemények:

A versenyszellem is segíthet. A Kaggle olyan oldal, ahova adatelemzős feladatokat töltenek fel (például a GE, az Amazon, vagy a Microsoft), és benevezhetsz a saját algoritmusaiddal és megoldásaiddal az adott contest-re, magyar szemmel nézve nagyon szép díjazásokért. Ráadásul még tutorial oldaluk is van, érdemes rápillantani arra is.

Alapok, technikák, gyakorlás – nekem ez a tervem a nyárra. Te hol tartasz?

Pusztai Ádám

Adatsztori 2. rész: tinilányok, müzli, kauzalitás

Nemrég hallottam Dr. Mine Cetinkaya-Rundel professzor asszony webináriumán az egyik legjobb esettanulmányt a korreláció vs. kauzalitás problémájának szemléltetésére:

2005-ben volt egy kutatás, ahol több mint 2000 darab 9 és 19 év közötti lányt kérdeztek reggelizési szokásaikról. A felmérés része volt, hogy az év során egyszer véletlenszerűen megkérdezték a lányokat arról, hogy mit ettek az elmúlt 3 napban. Azt találták, hogy azok a lányok, akiknél a válasz az volt, hogy müzlit ettek reggelire, szignifikánsan alacsonyabb testzsír-index-szel rendelkeztek, mint azok, akik valami mást.

A kutatás következtetése: a müzlitől soványabb leszel.
Csakhogy ez a következtetés: HIBÁS!

Miért?Mert ez a kutatás egyedül azt mutatja meg, hogy van valamilyen összefüggés a müzli és a testzsír-index között, de az ok-okozati kapcsolatot nem lehet belőle megállapítani. Gondolj bele! Valójában 3 jó megoldás is létezik:
1. Lehet, hogy – valóban -, aki müzlit eszik, az soványabb lesz.
2. De az is elképzelhető, hogy az eleve soványabb emberek valamiért jobban szeretik a müzlit. Tehát a soványság következménye a müzlifogyasztás.
3. Vagy esetleg valami külső okból származik mindkét dolog (soványság, müzlifogyasztás) és köztük közvetlen ok-okozati összefüggés nincs is. Pl. aki eleve egészséges életmódot folytat, az szeret müzlit enni és a testzsír-indexe is alacsonyabb, hiszen pl. sportol is. De ez nem azt jelenti, hogy a müzli önmagában soványabbá tesz, jelentheti azt is, hogy a sportos emberek fejében az van, hogy müzlit kell enniük.

Dr. Mine Cetinkaya-Rundel
Dr. Mine Cetinkaya-Rundel ábrája -korreláció vs. kauzalitás


Mi a tanulság ebből?
A fenti probléma egy közismert adatelemzési problémakör része az adatvezérelt üzletek világában is. A neve: korreláció vs. kauzalitás. Az általános megállapítás az, hogy ok-okozati viszonyt (kauzalitást) soha sem lehet megállapítani visszatekintő elemzésekből. Ezekből mindig csak és kizárólag összefüggést (korrelációt) lehet kikövetkeztetni.
A kauzalitás tényleges megállapítására egyedül az ún. kontrollcsoportos vizsgálatok valóak. Tehát a fenti példában a korrekt megoldás az lett volna, hogy a lányokat két csoportra szedik és az egyik csoportnak müzlit adnak enni minden reggelire, a másiknak pedig akármi mást. Majd figyelik, hogy hogyan változik a testzsír-indexük. Ha itt nyer a müzlis szegmens, akkor már valóban mondhatjuk, hogy a müzli soványabbá tesz.

Ez a módszertan az offline világban elég nehézkes, habár vannak rá példák…
Az online világban viszont nagyon egyszerűen kivitelezhető: ez az, amit A/B tesztelésnek neveznek. Jellemzően a korreláció vs. kauzalitás problémáját akkor érdemes A/B teszteléssel megoldanod, ha egy új funkciót (új feature-t) vezetsz be az oldaladon. Ilyenkor ugyanis el tudod dönteni, hogy valóban az új feature volt hatással a közönséged elköteleződésére (jó eset) vagy a közönséged eleve elkötelezettebb része érdeklődött az adott funkció iránt (kevésbé jó eset).

Összefoglalva: semmilyen kérdőív eredményből, felmérésből vagy visszatekintő elemzésből ne vonj le elhamarkodott következtetéseket! Próbálj helyettük minél több AB-tesztet és/vagy kontrollcsoportos vizsgálatot végezni!

Mester Tomi