A nagy Big Data félreértés

“A Big Data olyan mint a tiniknél a szex:

  1. mindenki erről beszél
  2. senki sem tudja igazán, hogy hogyan kell csinálni
  3. mindenki azt hiszi, hogy  a többiek csinálják
  4. ezért mindenki azt mondja, hogy ő is csinálja.”

(Dan Ariely)

Biztosan hallottad már a fenti mondást. Félig vicces, de félig igaz is. Manapság már a csapból is a Big Data folyik és ennek a legfőbb oka nem a technológia terjedése, hanem az, hogy az újságírók és a marketingesek rájöttek, hogy ennek a két szónak az említésével szinte bármit el lehet adni. A másik oldalról viszont a valódi adat-szakemberek ritkán írnak közérthető cikkeket a témában, hiszen őket a technológia érdekli.
Ezt az űrt szeretném betölteni ezzel a rövid kis cikkel. Mi az a Big Data? Érthetően, de marketing bullshit nélkül.

Small Data

Kezdjük onnan, hogy mi az a small data? Az adatelemzés alapjainak alapjait a népszámlálás teremtette meg, ahol már évszázadokkal ezelőtt is kérdezőbiztosok mindenféle érdekes dolgokat kérdezgettek az emberektől. Ennek a következő evolúciós lépcsője a kérdőívezés lett, ami mind a mai napig egy gyakran használt piackutatási módszer. Mi a baj a kérdőívezéssel? Egyrészt a mintavétel: még a legprecízebb, legkörültekintőbb mintavétel is tévedhet. Hogyan reprezentálhatná hűen 2.000 ember válasza egy millió ember gondolatait? Persze vannak korrekt statisztikai módszerek, de a hibázás lehetősége mindig fennáll. A másik probléma a válaszok minősége. Az emberek hazudnak és gyakran nem is tudják, hogy hazudnak. Ha Téged megkérdeznek, hogy mi a kedvenc színed, lehet, hogy ma azt mondod, hogy a piros… aztán 1 hét múlva rájössz, hogy amúgy az összes pólód sárga és elbizonytalanodsz. De addigra már leadtad a válaszodat, a nagy üzletemberek pedig már döntéseket hoztak az alapján.

Ezek tipikus small data-s problémák.

Majdnem Big Data

Ezekre a problémákra ad választ a big data-s gondolkodás mód. Ha big data alapon gondolkozunk, akkor nem megkérdezzük az embereket, hanem a megfigyeljük viselkedésüket. Így nem tudnak nekünk (és maguknak) hazudni. Emellett pedig nem csak 2.000 embert figyelünk meg, hanem az összeset.

Értelemszerűen ez a legkönnyebben a számítástechnikai és az ahhoz kapcsolódó területeken történhet meg, ahol minden kattintásból és egérmozgásból új adatsor születhet.

Ezen a logikán keresztül születtek meg az olyan ismert és használt projektek, mint a Google Analytics, a CrazyEgg vagy a Mixpanel.

Bár ezekben a projektekben minden felhasználó/látogató viselkedését letárolták, de még mindig nem számítanak Big Data-nak, mivel relatív még mindig elég kicsi adatmennyiségről és korlátok között mozgó, nem túl rugalmasan kezelhető adathalmazokról beszélünk (pl. csak az előre meghatározott riportokat lehet legyártani, nem lehet kettőt kombinálni)… De akkor mi a tényleg nagy?

Big Data

Az elmúlt évek (évtizedek) egyik fontos trendje volt, hogy az adattárolás ára folyamatosan és nagy erővel csökkent. Mára elértük azt az állapotot, hogy olyan olcsó adatot tárolni, hogy inkább elmentünk mindent és nem törlünk ki semmit. És ez a kulcsa a Big Data-nak! Letárolunk minden adatot, amit csak tudunk és nem törlünk ki belőle semmit, még évekre visszamenően sem. Ezt jellemzően már nem Analytics-szerű programokba pakoljuk, hanem saját adattáblákba (pl. SQL) vagy log-okba.

Így előbb vagy utóbb akkora adatbázisok jönnek létre, amivel egy számítógép már nagyon nehezen birkózik meg. Egy terabájtos nagyságú adathalmazt Excel-ben vagy SPSS-ben nyilván meg se próbálunk megnyitni. De egy rendes SQL lekérdezés is akár órákon, sőt napokon keresztül futhat rajta. Egész egyszerűen akármivel próbálkozik az ember (R, Python, etc.), azt látja, hogy elérte a számítási kapacitás tetejét és nem tudja értelmes időn belül feldolgozni az adatait.

És ekkor jönnek képbe a Big Data technológiák – aminek az alapja, hogy az adatainkon innentől fogva nem egy számítógép dolgozik, hanem akár több tíz vagy száz vagy még több. Legtöbbször ezek a cluster-ek könnyen és szinte végtelenül skálázódnak: minél több az adatunk, annál több erőforrást tudunk bevonni a feldolgozásába. Így újra normális idő alatt tudjuk elemezni az adatainkat. Viszont sok-sok számítógépet egybekötni és egyszerre dolgoztatni egy elemző script-en: új infrastruktúrát és új technológiát igényelt. Így született meg a Big Data technológiák széles tárháza és így kerültek be a köztudatba az olyan fogalmak, mint a Hadoop, a YARN, a Spark, a Pig és a többi divatos Big Data technológia.

Big Data evolúció cégen belül

Nézzük egy startup esetében, hogy működik a Big Data evolúció.

1. Először a korai szakaszban nincs adatelemző a cégnél, de nem akarnak vakon repülni. Ezért fel-setup-olnak egy Google Analytics-et, egy Mixpanel-t, meg egy CrazyEgg-et és nézegetik az adataikat.

2. Megvan az első 10.000 felhasználó. A cégvezetés rájön, hogy a Mixpanel és a CrazyEgg kezd drága lenni, meg amúgy sem mutatnak elég részletes riportokat. Így elkezdenek saját SQL táblákat építeni és szabad szöveges log-okat gyártani. Ezt pedig valaki elemezgeti, különbözős SQL, Python vagy R script-ekkel.

3. Továbbra is növekszik a felhasználószám és az elemző(csapat) ekkor már arra panaszkodik, hogy 10-20 perc alatt sem futnak le az elemző script-jeik. Aztán, amikor elérik a több órás futás időket, rájönnek, hogy szükség lesz egy Big Data technológiára és elkezdik guglizni, hogy mi is az a Hadoop… :-)
Remélem ez a rövid összefoglaló segít eloszlatni egy kicsit a ködöt a Big Data mítosz körül. Ha pedig több tudásra van szükséged a témában, a szeptember 17-i Big Data tréningünkre még van 2 hely.

Hamarosan folytatom a témát egy új cikkel! Ha értesülni akarsz róla, iratkozz fel!

Tomi

Codecademy – új kurzus!

A Codecademy-t kifejezetten ajánlom mindenkinek, aki szeretne megtanulni programozni, de fogalma sincs arról, hogy hol kezdje. Ha elvégzed pl. a JavaScript kurzusukat, nem válsz majd profi JavaScript szakemberré. De legalább lesz némi fogalmad arról, hogy hogy épül fel egy ilyen nyelven íródott kód. Tudod majd olvasni ezt a kódot, sőt akár el tudsz indulni egy saját kis gyakorló projekttel is.

Codecademy: Command Line kurzus

https://www.codecademy.com/en/courses/learn-the-command-line

Nemrég jelent meg egy teljesen új kurzusuk, ami a “Learn the command line” nevet kapta. (Amúgy magával a nyelvvel találkozhatsz, “Bash”, “Unix”, “Shell” említések között is az online fórumokon). Egyrészről szerintem ez az első tanfolyam, amit az összes közül érdemes elvégezni. Másrészről pedig adatos vonatkozása is van. Mert hogy kis, szabad szöveges (tehát nem SQL) formátumú adathalmazokat command line-ban elég rugalmasan és gyorsan lehet feldolgozni.

Pl. ha van egy 1.000.000 soros és 15 oszlopos Excel-ed, akkor azzal a személyi számítógéped/laptopod már eléggé izzadni fog. Arról nem is beszélve, hogy iszonyatosan nehéz kezelni és pl. egy olyan parancsot, hogy szűrje ki azokat a sorokat, amiben szerepel az “alma” – esetleg még tegye ki ezeket egy új fájlba – kifejezetten bonyolult már megcsinálni benne. (Pedig összetettebb adatelemző projektekben ez egy elég fontos funkció lenne.)
Big Data technológiákat ráereszteni egy ilyen adathalmazra viszont tipikus “ágyúval verébre” szituáció lenne, hiszen azok 1 milliárd sor felett jönnek számításba.

Bash-ben (command line-ban) ugyanez 1 másodperc alatt végigvihető egy egysoros paranccsal.

Ennél persze jóval többet is tud – de ez kiderül a tanfolyamból, ami 3 órás és nem mellesleg még ingyenes is! :-)

Úgyhogy tényleg csak ajánlani tudom.

Hajrá!
Tomi

Tréningek: Big Data, Adatvezérelt Marketing újra!

Jön a szeptember – és szeptemberrel újra jönnek az Adatlabor képzések is!
Hasonlóan a korrábiakhoz, mindkét tréningünk létszámát maximáljuk 12 főben és mivel ez elég gyorsan beszokott telni, azt javasoljuk, ne habozz – hanem jelentkezz! : )

Szeptember 11. – Big Data Tréning

Tóth Zotya, Mester Tomi, big data tréning

Szeptember 18. – Adatvezérelt Marketing Tréning

tréning oktatók Németh Anna Pásztor Dávid Mester Tomi
Várunk szeretettel!

Tomi

Szignifikáns vagy sem? Így mérd az AB-teszted eredményességét

Az egyik leggyakoribb kérdés, amit AB-teszteléssel kapcsolatban kapni szoktam, hogy ugyan hány felhasználóra van szükség a teszteléshez? Természetesen, mint a kérdések 99%-ra, itt is az a válasz: attól függ!

Mitől függ?

Alapvetően 3 dologtól:

  1. Az alapkonverziós arányodtól (%)
  2. A javulás nagyságától, amit elvársz a teszttől (%)
  3. A szignifikancia-mutatótól, amit elvársz a teszttől (~95%)

Ha ezek megvannak, akkor dobd be az Optimizely – Sample Size Calculator-ba és már meg is kapod a bűvös számot:

Optimizely - Sample Size Calculator
Optimizely – Sample Size Calculator

Ahogy látod, az adott példában, a 3%-os alapkonverzió, 20%-os növekedésének 95%-os biztonságához: 10170 ember kell verziónként!

Azaz, ha hetente 10.000 látogatód van, akkor egy 2 verziós AB-teszt 2 hét alatt fog kipörögni.

3 egyéb mód a szignifikáns kontra nem szignifikáns kérdés eldöntésére:

Azt tudni kell, hogy az Optimizely motorja elég szigorúan méri, hogy egy eredmény szignifikáns vagy sem.
Ez így jól is van, de én azért 3 egyéb módon szoktam még ellenőrizni, hogy biztonsággal valós eredményeket kaptunk-e. Egyébként ha ez a 3 mérés mind pozitív eredményt hoz, akkor gyakran nem is várom meg az Optimizely szuper-szigorú méréseit. Íme:

1. T-próba:

A legklasszikusabb AB-teszt ellenőrző művelet. Van online elérhető felhasználó-barát, kitölthetős verziója (pl. ITT). Száraz tudomány – ha itt kapsz egy P-value < 0.05, akkor 95%+ eséllyel valóban az lesz a nyertes, akit jelenleg nyerésre áll. De önmagában ez még nem elég.

AB-teszt szignifikancia kalkulátor, szignifikáns vagy sem?
VWO, AB-teszt szignifikancia kalkulátor

2. Trend chart-ok:

Az Optimizely mutatja azt is, hogy hogyan alakulnak a trendek. Ez nem egy nagy varázslat. Ha 2 héten keresztül végig ugyanazt látod és még a T-próbád is jó eredményt dob, akkor már majdnem biztos lehetsz benne, hogy nyertél.

AB teszt trendek, szignifikáns vagy sem?
AB teszt trendek

3. AAB(B) teszt:

Ez egy expert-trükk! ;-)
Már a kísérlet elejétől érdemes az eredeti verziónak egy változtatás nélküli verzióját is elkészíteni. Így lesz 2 A verziód – vagy akár akár 2 B verziód is. Ha a két hasonló verzió között nincs eltérés eredményben, akkor az már jót jelent! Ezt kombinálva a trend-chart és a T-próba módszerrel, padlóra küldted a szignifikáns kontra nem-szignifikáns kérdést!

AABB teszt - konverziók, szignifikáns vagy sem?
AABB teszt – konverziók

Azt hiszem, ezzel mindent tudsz, amit az AB-teszt eredményének a biztonságosságáról tudnod kell!

Ha szeretnél hasonló bejegyzéseket olvasni, iratkozz fel a Hírlevélre!

Ha részletesen érdekel a téma, gyere el az Adatvezérelt Marketing Tréningünkre!

Tomi

Big Data könyv 1. rész – Mit érdemes olvasni?

A nyáron volt egy kis időm olvasgatni, így hát beszereztem több Big Data könyvet is!

Big Data Könyv 1 - Schönberger, Cukier1. Viktor Mayer-Schönberger & Kenneth Cukier: Big Data

értékelés: 2/10
Őszintén: nagyon megbántam, hogy rászántam az időmet erre az írásra. 200 oldalon keresztül sztorizgat, hasonlatokat hoz – néha nem is Big Data-ról – és a tényleges tartalmát kb 5 oldalban össze lehetne foglalni. A stílusa élvezhetetlen, nagyon szájbarágós, folyamatosan ismételgeti önmagát – ráadásul olyan dolgokban (korreláció vs. kauzalitás), amiben nem is feltétlenül van igaza. A jó történeteket (Google Flue Trends, Netflix, Amazon, etc.) egyébként már mind-mind olvashattuk online a kiemelt hírek között is az elmúlt 10 évben.
Azoknak ajánlom, akik szeretnének egy új – trendi – társalgási témát bedobni az esti borozgatásokhoz a baráti társaságban… De gyakorlatiasságra vagy arra, hogy megtudd, mi az a Big Data, ne számíts! (Ez csak azért szomorú, mert – megtévesztő módon – ez a könyv címe.)

Big Data könyv 2 - Lean Analytics2. Croll & Yoskovitz: Lean Analytics

értékelés: 9/10
Ellentétben az előző könyvvel, ezt 100%-osan ajánlom mindenkinek, aki adatvezérelten akar akármilyen bizniszt felépíteni. Nem kifejezetten Big Data könyv, sokkal inkább adatstratégiáról szól, de nagyszerű gondolatindító. Ha big data-val fogsz dolgozni üzleti fókusszal, akkor egyértelműen alapmű. Ha pedig ugyanezt teszed, de technológiai fókusszal, akkor ez a minimum, amit látnod kell az üzleti oldalról.
A könyv legnagyobb előnye, hogy nagyon-nagyon gyakorlatias. 31 fejezeten keresztül leírja az összes módszertant, illetve tesztelési, elemzési és egyéb praktikákat, amelyeket a menő “data-driven” cégek már kipróbáltak és sikerrel alkalmaznak. Minden fejezet végén megkapod a saját kis “házi feladatodat”, így rövid távon gyakorlatba ültetheted a tudást.

Big Data Könyv 3 - I heart logs3. Jay Kreps: I heart Logs

értékelés: 8/10
Ha az előző írás a startégiai, akkor ez a technológiai alapmű. Jay Kreps a LinkedIn adatinfrastruktúráját építette fel és közben olyan Big Data technológiát támogató open-source projekteket hozott létre, mint a Kafka, a Samza vagy az Azkaban. Ebből sejtheted, hogy nagyjából a füzet minden szava arany. Sajnos elég rövid (50 oldal), de egyúttal tömör és lényegretörő is. Mire a végére jutsz, biztosan érteni fogod, hogy mi az a log, mi köze van ennek a Big Data-hoz és hogy hogyan kell összedrótozni egy normális adatinfrastruktúrát. Betekintést kaphatsz abba, amit a LinkedIn anno a saját bőrén tanult meg – ami nem csak érdekes, de iszonyatosan hasznos is.

A könyveket itt veheted meg:
I heart Logs: http://shop.oreilly.com/product/0636920034339.do
Lean Analytics: http://leananalyticsbook.com

Ha pedig tréningen vagy képzésen ismerkednél meg az alapokkal:

Big Data Képzés: KLIKK!
Adatvezérelt Marketing Képzés: KLIKK!

Tomi

Egy Játék mérése: gamification vs. retention

Múlt héten tettem ki az egyszamjatek.eu című kísérletünket a Facebook oldalunkra.

A játék nagyon egyszerű volt: mondj egy pozitív egész számot és ha ez a legkisebb olyan szám, amit más ember nem mondott Rajtad kívül, akkor nyertél. (Egyébként magát a játékot Mérő László találta ki.)
Összesen 7 forduló volt. Minden fordulóban 24 órán keresztül lehetett játszani. Így összesen 7 nyertest hirdethettünk.

A cél kettős volt:
1. Vizsgáljuk, hogy mi a nyertes stratégia. (Ezt ígéretemhez híven csak azoknak publikáljuk, akik játszottak. Sorry…)
2. Modellezzünk egy gamification alapú startup-ot és vizsgáljuk, hogy a játékélmény milyen hatással van a visszatérésre, illetve, hogy ezt hogyan lehet mérni.

Ezt a cikket azért írom, hogy ha esetleg online játék fejlesztésében vagy, láss néhány ötletet (konkrét példán keresztül is), hogy miket, miért érdemes mérni és elemezni.

Összehasonlítani nem akarom akármilyen más app vagy SaaS szoftver eredményeivel ezt a játékot, hiszen ez csak egy kísérlet, meg amúgy is tök más, mint akármi más, ami értelmes. :-) De azért nem árt ha tudod, hogy egyetlen mérőszám volt, amit boost-olni akartam az egész folyamat során: ez pedig a daily retention – azaz minél többször, minél sűrűbben visszahozni a játékosokat.

Ehhez egyetlen “marketing stratégiát” használtam – mindenki, aki adott napon játszott, kapott egy direkt email-t az eredményekről és egy linket a következő napi játékhoz. Ez a tool működött is – a leveleknek átlagosan 80%-os megnyitási aránya volt, amit kifejezetten erősnek mondanék.

mailchimp megnyitas és CTR - játék
mailchimp megnyitas és CTR

Nézzük mi a helyzet az aktív játékosok számával! Az első nap csináltam a játéknak egy nyitópromo-t (néhány csoportba és FB-oldara kitettem a játékot.) Így 296 emberrel indult a verseny az első nap. Ehhez csatlakozott az utolsó napig innen-onnan még 38 ember (valószínűleg meghívásos alapon, hiszen ezután már nem hirdettem). Tehát összesen 334-en játszottak.

A lenti ábra azt mutatja, hogy mekkora volt a napi visszatérés, azaz az előző nap játékosai közül hány % játszott az adott napon.

daily retention - egyszamjatek.eu - játék
daily retention – egyszamjatek.eu

Ha megfigyeled, két mélypont van. A 2. nap, amikor 30% körüli a retention és az 5. nap, ahol 50% körül van. A többi napon 60% felett megyünk, sőt az utolsó napokon felszökik 100% felé, ami azt jelenti, hogy olyanok is visszajöttek, akik régebben játszottak!
Ki találod mi történt a 2. és 5. napon? Elárulom, ezeken a napokon véletlen délután 4-kor küldtem ki a hírlevelet, amit reggel 9-kor kellett volna. Tanulság ebből a chart-ból: reggel kell kiküldeni a leveleket…

Nézzünk egy klasszikus kohorsz elemzést! Minden sorban az adott nap regisztrált user-eket látod és minden oszlopban azt, hogy hány maradt meg belőlük X nappal később.

kohorsz elemzés játék
kohorsz elemzés

Mi látszik itt? Az, ami már a retention riportból is elkezdett kiderülni. Az első napon regisztráltak, ha ki is hagytak egy-két napot, vissza-visszajönnek 2-3 nap után. Lehet, hogy az ideális játékciklus nem 1 nap lenne, hanem 2?

Kedvenc riportom: aktív user-ek vs. retaining user-ek.

aktiv user-ek vs. retaining user-ek
aktiv user-ek vs. retaining user-ek

Ahogy azt írtam, az első nap után már semmit sem tettem bele a marketing-be. Ez az ábra mutatja a legjobban: ha lecsökken a user bázis, akkor ott szűrve szépen csak a “legjobb” felhasználók maradnak bent. Nekik magas lesz a visszatérésük és valószínűleg ez a néhány (35-40) user volt az is, akik behozták az utolsó pár napon a +10 új user-t – mindenféle költségek nélkül.

2 érdekesség a Gamification hatásáról:
1. Volt egy feltűnő trend a nyertes játékosok körében. Ez a 7 játékos, miután nyertek, már sokkal kisebb eséllyel jött vissza játszani. Lehet, hogy őket valahogy máshogy kellett volna visszacsábítani egy második körre?

játszott - nyert - nem játszott
játszott – nyert – nem játszott

2. A Power User-eknek (azaz, azok a játékosoknak, akik mindennap játszottak), több mint 50%-a mindennap ugyanazt a számot játszotta meg. (Az egyik nyertes egyébként pont közülük került ki.)

———————————————————————————

Akárhogy is, számomra ez egy izgalmas kísérlet volt – sok olyan dolog kiderült belőle, amiket már máshol is mértünk, de a titoktartás miatt nem publikálhattam! :-)

Remélem hasznosnak találtad és ha szeretnél feliratkozni az Adatlabor hírlevélre, ne habozz!

Tomi

Miért szeretem az adatelemzést?

Mostanában – így félévzárás után – sokat gondolkoztam azon, hogy vajon miért is szeretem az adatelemzést?

3 dolgot találtam.

1. Tényeket közlünk.

Több weblap-dizájner ismerősöm is van. Legtöbbjük iszonyatosan tehetséges, szuper weblapokat dizájnolnak, működő, korszerű kódokat tesznek mögéjük – de valahogy mindig van legalább egy ember az ügyfél oldalán, akinek valami apróság nem tetszik. “Szerintem ez nagyon zsúfolt”. Ez “nem a mi stílusunk”. “Valahogy olyan kicsik a képek.”

Az adatelemzésben azt szeretem, hogy bár mi is ugyanazokkal a felületekkel foglalkozunk, mint a webdizájnerek – amit mi mondunk, az objektív és emiatt elég nehezen támadható. :-) Egész egyszerűen számokkal tudjuk megmondani, hogy mi az, ami működik, mi az ami kevésbé… és százalékra (vagy forintra) pontosan azt is ki tudjuk mutani, hogy mennyivel jobb ez a valami, mint a másik valami.

Még nem volt olyan ügyfelünk, akinek ha megmutattuk, hogy ha ez a gomb zöld és nem szürke, akkor az +30% bevételt jelent (persze ez csak egy sarkított példa), akkor arra azt mondta, hogy “Hmm… de ez a zöld nem a mi stílusunk.” Ez persze nem csak azért jó érzés, mert nem kell felesleges dolgokon veszekedni, hanem azért is, mert mindenki dolgát megkönnyíti az, ha tiszta tényszerű adatok alapján tud véleményt formálni.

2. Emberekkel foglalkozunk.

Annak ellenére, hogy a fenti bekezdés alapján az adatelemzés egy elég objektív szakmának tűnik, a valóságban szubjektumokkal fogalalkozunk. Emberi viselkedéssel. Emberi döntésekkel. Emberi dilemákkal.

Miért ide kattint valaki és nem oda? Miért veszi a drágább csomagot? Miért kattan rá egy termékre? Miért utál valamit, amit nem is ismer? Mennyire tudatos? Érdekli egyáltalán, amit modani akarunk neki? Megtalálja, amit keres? Miért viselkedik úgy, ahogy viselkedik?

Ezek a kérdések borzasztóan izgalmasak, mert az embernek a tudatos és tudatalatti gondolatait kutatják… Nem lehet mindig mindegyikre választ kapni, de ha csak egy nap egy rejtélyt sikerül feltárni, akkor már rögtön úgy érzi az (adatelemző) ember, hogy egy kicsit jobban érti, hogy embertársai, mit, miért, hogyan, mikor és meddig csinálnak… És ez jó érzés!

3. Minden nap tanulunk.

Hogy csak egy példát ragadjak ki: az elmúlt egy évben viszonylag sok webshop-pal dolgoztunk. Végigelemeztük és optimalizáltuk a felületeiket: landing oldalaikat, üzeneteiket, termék- és listaoldalaikat, kosárfolyamataikat. Tanultunk nap mint nap, az adatokra és a felhasználók reakcióira, viselkedésére támaszkodva.

Nem állítom, hogy mindent tudok az e-commerce bizniszekről, de az biztos, hogy – ha belenézek az adataikba – bármelyik webshop-nak tudnék legalább egy olyan dolgot mondani, amit a többiek jobban csinálnak, elleshetnek, átvehetnek tőle.

Ezeket a dolgokat pedig nem lehet tankönyvől vagy egyetemeken megtanulni. Ezeket a dolgokat folyamatosan kutatni és mérni kell. Idézőjelesen “a vásárlóktól kell megtanulni”. Azért szeretem az adatelemzést, mert erre a tanulásra is lehetőséget ad.

Úgyhogy egyelőre maradunk a szakmában.
Ha szeretnél szakmai cikkeket olvasni a témában, iratkozz fel a hírlevélre és értesítünk az új bejegyzésekről!

Tomi

Mobil App mérések – miért, mit és hogyan?

Tudtad, hogy a letöltött mobil app-ok 80%-át az első használat után törlik a felhasználók a telefonjukról? Hogy bent maradj a kellemes 20%-ban, elengedhetetlen, hogy reagálj a user-eid viselkedésére! Ehhez pedig mérned kell. Ugyanúgy, mint desktop-os internetes alkalmazásoknál… habár az elmélet és a gyakorlat is egy kicsit más. Ebben a cikkben leírom azt a néhány best practice-t, amivel már könnyen el tudod kezdeni a mobil app-od mérését!

MIÉRT MÉRJEM A MOBIL APP-OM?

Az egyik legfontosabb kérdés, hogy miért is mérsz? Erről már többször is írtam, de nem győzöm mindig hangsúlyozni, hogy akármit is mérsz: legyen egy jól definiált üzleti célod!
Ezt a célt állapotban két dolog határozza meg (Rajtad kívül). Az egyik, hogy milyen bizniszben vagy, a másik pedig hogy milyen szakaszában a növekedésnek.

Ha pl. egy érett e-commerce bizniszen dolgozol, akkor az egyik legfontosabb célod a Revenue, azaz a bevételed lesz.
Ha egy korai fázisú startup-on, akkor inkább az engagement-re és az activation-re fókuszálj, azaz arra, hogy a felhasználók egyáltalán megértsék a termékedet és elkezdjék használni – no meg persze, hogy elégedettek legyenek vele.
Egy feltörekvő média oldalnak pedig általában a retention-re fekteti a hangsúlyt, tehát a visszatérő látogatók számára és a visszatérések sűrűségére.

Ha megvan a célod, akkor már könnyen választ adhatsz a miért-re. Azért mérsz, hogy ezt a célt minél könnyebben elérd és ha nem sikerül, akkor megértsd, hogy miért nem sikerült. És persze, hogy tudd, hogy hol, mikor, mit és hogyan kell változtatnod.

MIT MÉRJEK A MOBIL APP-OMBAN?

Egy mobil app persze elég speciális biznisz. Van egy-két dolog, amit a legtöbben mérnek és ami gyakorlatilag kikerülhetetlen, ha ezen a területen dolgozol. A 3 leggyakoribb:

1. Onboarding funnel

Mobil App Onboarding Funnel
Mobil App Onboarding Funnel

Ahogy a képen is látszik, az onboarding során lépésről lépésre kiesnek az emberek. pl. 1300-an letöltik az app-ot, 800-an elindítják, 400-an beregisztrálnak, 100-an pedig elkezdik használni tényleg a terméket, stb, stb… A lényeg, hogy lásd, hogy hol esnek ki a legtöbben és, ha ez a szám nagyon nem illik az elképzeléseidbe, akkor tudd, hogy ott valamit változtatnod kell.

A mobil app-oknál a legtöbb onboarding funnel így néz ki.
1. lépés: Letöltések száma (pl. 1000 db)
2. lépés: Launch (pl. 800 db)
3. lépés: Regisztráció (pl. 600 db)
4. lépés: Elkezdik használni a terméket (pl. 400 db)
5. lépés: Végére érnek az első körnek, a tanulási (más néven onboarding) folyamatnak (pl. 200 db)

Az 5. lépés egyébként trükkös, ezért szét szoktuk bontani 3-4 allépésre. Akkor vesszük úgy, hogy egy felhasználó elérte az 5. lépést és “onboarded” lett, ha már tudjuk, hogy minden olyan funkciót használt, ami kell ahhoz, hogy értse a termék előnyeit.
pl. ha egy idegenvezető mobil app-od van, ami a füledre mondja egy városban, hogy merre menj és mit kell tudni a nevezetességekről, akkor valami ilyesmi lehet az onboarding funnel-ed vége:

4. lépés: Kiválaszt a user egy túrát.
5. lépés: Odamegy a túra kezdőpontjára.
6. lépés: Elindítja az audio guide-ot.
7. lépés: Eljut a túra felére.
8. lépés: Végigér a túrán.

Aki végigért a túrán, nagy eséllyel találkozott az app összes főfunkciójával és érti, hogy mi a jó benne. Utána, hogy újra használja-e már, az egy másik kérdés.

2. Retention – visszatérés

Az egyik legütősebb metrika a felhasználó elégedettség vizsgálatára: a visszatérések száma és aránya. Tehát azok közül, akik múlt héten használták az app-odat, hányan használják újra. Itt nem feltétlenül megnyitásról beszélünk, hanem pl. egy core-feature használatáról (mint pl. a spotify-nál a zenelejátszás).

Itt is érdemes Neked definiálnod, hogy mi az ideális visszatérési sűrűség. Pl. ha egy média app-od van (, ahol naponta jelennek meg új cikkek,) vagy egy self-tracker alkalmazásod (, ahova minden reggel beírod, hogy milyen kedved van), akkor érdemes napi retention-t mérned. Egy Uber típusú app-nál a heti retention már logikusabbnak tűnik, egy repülőjárat kereső alkalmazásnál pedig akár a (több-)havi retention is indokoltnak tűnhet, hiszen a legtöbb ember amúgy sem utazgat minden héten vagy hónapban repülővel. (Azért törekedj minél kisebb retention time-ot belőni, mivel ha változtatsz valamit az app-odban és szeretnéd a retention-re gyakorolt hatását látni, mindig annyit kell majd várnod az első adatpontodra, amekkorára a retention definíciód be van állítva.)

Ha ez megvan, akkor nincs más dolgod, minthogy meghatározd a napi, heti vagy havi visszatérő látogatóid számát és arányát. És, hogy próbáld ezt a számot minél magasabbra tolni!

A retention címszó alatt még több dolgot is mérhetsz. Pl. a churn, azaz a lemorzsolódások aránya (pl. hányan uninstall-álták az alkalmazást, vagy hányan nem tértek vissza legalább a retention time-od 10-szereséig.) Vagy idetartozik az active/passive user-ek aránya. Azaz, hogy az összes user-edből hány % aktív.

3. Revenue – bevétel

A bevételt is többféleképpen mérheted. Itt persze attól is függ a dolog, hogy pontosan, hogy monetizálsz (fizetős app? reklámokból? in-app eladásokból? stb…), de a leg fontosabb alapmérések:

  • Első fizetésig eltelt idő
  • Fizetős user-ek aránya (hány ingyenes felhasználóra jut egy fizetős)
  • Havi átlagos bevétel user-enként
  • CLV – Customer Lifetime Value: Ez már egy összetettebb számítás, ami megmutatja, hogy az adott lemorzsolódási arányok és havi átlagos bevételek mellett egy user kb. mennyi pénzt termel az applikáción keresztül Neked onnantól, hogy beregisztrált, egészen addig, hogy letörli az app-ot.
    customer lifetime value mobil app mérés

Ez most csak 3 dolog – onboarding, retention és revenue -, de az alapok lefektetéséhez elég, aztán lehet továbbrészletezni még…

HOGYAN MÉRJEM A MOBIL APP-OM?

A millió dolláros kérdés: milyen eszközzel mérjem a mobil app-omat?
A jó hír hogy rengeteg lehetőség van…
Amit mindenképpen ajánlok az a Google Mobile Analytics. Ingyenes, mindent tud, ami kellhet. A korlátai pedig ugyanazok, mint a Google Analytics-nek. Csak report-olásra jó.
Ha szeretnél eggyel továbblépni, akkor itt is a Mixpanel az egyik legerősebb játékos a piacon. A Mixpanel-lel már viselkedés alapján tudsz szegmentálni, automatizált e-mail marketing-et beállítani, stb…
Ezeken kívül még rengeteg tool létezik, pl. az ingyenes Flurry Analytics vagy a kifejezetten crash-ek mérésére szolgáló Crashlytics – de azt is kevesen tudják, hogy az Optimizely-t is lehet használni mobil app AB-tesztelésre…

Egy szó mint száz

A lehetőségek és az eszközök adottak! Kezdd el mérni az app-odat és meglátod, sokkal tudatosabban, gyorsabban és eredményesebben tudsz majd fejlődni!
Sok sikert!

Ha szeretnél még ilyen cikkeket olvasni, iratkozz fel a hírlevelünkre!

Mester Tomi

Hogyan mérd az MVP-det?

Mostanában több viszonylag korai fázisú – MVP startoltatás előtti pillanatokban levő – startuppal is dolgoztunk 1-2-3 konzultáció erejéig – és mindig ugyanaz volt a kérdés: ha megvan az MVP, akkor hogyan – és főleg mit mérjünk?

Itt 3 főelv van:
1. Az OMTM-elv
One Metric That Matters – azaz egy darab célt jelölj ki! Egyet és ne többet! És ezt az egy célt helyezd a méréseid fókuszába. Hogy ez mi legyen azt iszonyatosan fontos már a startolás előtt, a legelején eldönteni.
Sok olyan cég van, aki megérzésből nyomja a dolgokat és adatok nélkül dönt. Aztán vagy bejön nekik vagy nem. De a másik véglet sem jobb – ha az ember 40 dolgot figyel egyszerre, akkor előbb-utóbb azon kapja magát, hogy egész nap csak a chart-okat nézegeti, de értelmes és értékes döntést még nem sikerült hoznia. Ha túl sok mindent mérsz, az összezavarhat. Legyen meg a fókusz: Mérj egy dolgot és határozza meg az, hogy merre mész tovább!

2. Engagement központúság
És hogy mi legyen az a bizonyos “Egy Mérés, Ami Számít”?
Természetesen ez a termékedtől függ, de MVP fázisban az biztos, hogy ez a metrika valahol az engagement, azaz a felhasználói elégedettség környékén keresendő.
NEM jó OMTM a regisztrált felhasználók száma. A regisztrált felhasználók száma semmilyen érdembeli visszajelzést nem ad a termékedről, maximum a value proposition-ödről (de azt jó esetben validáltad már eddigre landing page tesztekkel és kvalitatív vizsgálatokkal) vagy a marketing erődről. Egy csomó embert hallok büszkélkedni, hogy elérte a 1.000 (2.000, 5.000, stb…) regisztrált felhasználót. De ha ebből 10-15 aktív felhasználója van, akkor bizony az a 2.000 nem sokat ér.
NEM jó OMTM a bevétel nagysága/fizetések száma sem. Ehhez még túl korai szakaszban van a termék – úgyse fog elég pénz bejönni, akkor meg kár ezen stresszelni magadat.

A jó OMTM a termék használatára vonatkozik. Használják-e az emberek a főfunkcióidat? Minden funkciót használnak vagy csak néhányat? Úgy használják, ahogyan tervezted? És a legfontosabb: az első látogatás/regisztráció után visszajönnek mégegyszer használni a termékedet?

Jó mérőszámok lehetnek:
– az aktivált felhasználók száma  (pl. a Spotify-nál aktivált felhasználó az, aki beregisztrál és meg is hallgat legalább egy számot – a Prezinél aktivált felhasználó, aki beregisztrál, elkészíti és bemutatja az első prezijét, stb…)
– az aktivált felhasználók aránya (ugyanaz, mint a fenti, csak %-ban, hogy lásd, hogy a regisztráltak mekkora része aktiválódik)
– a visszatérő felhasználók aránya. Hányan döntenek úgy, hogy újra használják a termékedet?
– a visszatérés ideje. Mennyi idő után jönnek vissza az emberek? 1 nap, 1 hét, 1 hónap?

És emellett persze folyamatosan monitorozd azt, hogy melyik feature-öket használják az emberek és melyikeket nem.

3. Csináld meg egyszerűen!
Ebben a szakaszban az a lényeg, hogy gyorsan tudj mérni – ne tölts vele túl sok időt. Mivel lehet ezt megoldani? Ha csak nincs a kisujjadban a log-gyártás, akkor smart tool-okkal. Tök őszintén: valószínűleg egy jól beállított (konverziók, demográfia, stb.) Google Analytics is elég lesz. Ha pro akarsz lenni, akkor vagy egy Kissmetrics-et vagy egy Mixpanel-t felteszel az Analytics helyett, de ennél többre valószínűleg tényleg nem lesz szükséged ebben a szakaszban.

Mégegyszer összefoglalva:
1. Egy dolgot mérj!
2. Ez az egy dolog a termék használatára és a felhasználói elégedettségre fókuszáljon!
3. A lehető legegyszerűbben valósítsd meg (Analytics, Kissmetrics vagy Mixpanel)

Ha pedig egy szinttel feljebb lépnél, gyere el az Adatvezérelt Marketing Képzésünkre, ahol beszélünk linkkövetésről, AB-tesztelésről, UX kutatásról, a lepattanó user-ek visszanyeréséről és megannyi finomságról, ami ebbe a cikkbe már nem fért bele (még 6 szabad hely van)! :-)
http://adatlabor.hu/adatvezerelt-marketing-trening/

Mester Tomi

(Inspiráció: leananalyticsbook.com)

Az adatok segítenek megérteni a felhasználóidat.