google analytics címkével jelölt bejegyzések

Online kutatásmódszertan – a keretrendszer, amit az Adatlabornál használunk

Az elmúlt 2 évben sok online projekt elemzését készítettük el – főleg webshop és startup vonalon. Így óhatatlanul is kialakult egyfajta keretrendszer, amit mostmár folyamatosan használunk. Ezt az anyagot általában az Adatvezérelt Marketing Képzésünk bevezetéseként szoktam bemutatni, de most szerettem volna nagyobb közönséggel is megosztani.

A keretrendszer – azaz az elemzési folyamat, amit használunk, nagyon egyszerű és 4 lépcsőből áll.

online kutatásmódszertan
Az Adatvezérelt Marketing Képzés vetített anyagából

Online kutatásmódszertan – a keretrendszer, amit az Adatlabornál használunk bővebben…

Látogatók és forgalom mérése UTM tag segítségével

Papp Gábor
Papp Gábor, thepitch.hu

Mai vendégszerzőnk Papp Gábor a thepitch.hu alapítója, SEO és online marketing szakértő! Egy kifejezetten fontos témát mutat be nekünk: a linkkövetést UTM-tag-ekkel!

Amikor 2016 januárjában elindítottuk a The Pitch Online Marketing blogját, akkor határozott célkitűzés volt előttünk, hogy tudatosan és adatvezérelt módon fogjuk gyűjteni és elemezni az adatokat. Ezeket pedig nem csak azért gyűjtjük, hogy ott legyenek a Google Analytics fiókban, hanem ténylegesen teszünk is azért, hogy ezekből a technikai információkból üzleti információt faragjunk. Vagyis olyan infót, amiből később üzleti értéket lehet teremteni.

Akik számára a tartalommarketing és az elkészült tartalom megosztása egy fontos marketingcsatorna, azok számára az utm tagek használata az egyik legjobb és leghasznosabb elemzést segítő megoldás. Látogatók és forgalom mérése UTM tag segítségével bővebben…

Adatvezérelten – az első pár lépés

Az utóbbi időben több képzésünkön is előjött a kérdés, hogy ha egy már működő online biznisz per-pillanat még semmilyen szinten sem elemzi a saját adatait, akkor mégis hogyan lehet és hogyan érdemes belevágni.
A hosszútávú, profi megoldás persze az, hogy ha felépíted minél előbb a saját adattárházadat, amiből függetlenül és rugalmasan tudod elemezni az adataidat. De hát azért elég gyakori, hogy erre se pénz, se idő, se emberi erőforrás nem áll rendelkezésre.
Ha ez Veled is így van, akkor most leírok három projektet, amivel kis ráfordítással nagy hasznot érhetsz el.
De mindenek előtt: mi lehet ez a haszon?

Adatvezérelten – az első pár lépés bővebben…

Funnel analízis

Mi az a Funnel analízis?
Egy mondatban: Egyetlen erőteljes elemzési módszer, amely megmutatja az egész felhasználói életút legsarkalatosabb pontjait.

Vagy inkább egy képben:

Funnel alanlízis egy képben
Funnel alanlízis egy képben

Hogyan is működik a Funnel metrika a gyakorlatban? Mik a legnagyobb kérdések és elakadások? Hogyan lehet belőle “actionable” tudást kiszedni?  Hogyan tudod elkészíteni magadnak? Vegyük sorra! Funnel analízis bővebben…

A nagy Big Data félreértés

“A Big Data olyan mint a tiniknél a szex:

  1. mindenki erről beszél
  2. senki sem tudja igazán, hogy hogyan kell csinálni
  3. mindenki azt hiszi, hogy  a többiek csinálják
  4. ezért mindenki azt mondja, hogy ő is csinálja.”

(Dan Ariely)

Biztosan hallottad már a fenti mondást. Félig vicces, de félig igaz is. Manapság már a csapból is a Big Data folyik és ennek a legfőbb oka nem a technológia terjedése, hanem az, hogy az újságírók és a marketingesek rájöttek, hogy ennek a két szónak az említésével szinte bármit el lehet adni. A másik oldalról viszont a valódi adat-szakemberek ritkán írnak közérthető cikkeket a témában, hiszen őket a technológia érdekli.
Ezt az űrt szeretném betölteni ezzel a rövid kis cikkel. Mi az a Big Data? Érthetően, de marketing bullshit nélkül.

Small Data

Kezdjük onnan, hogy mi az a small data? Az adatelemzés alapjainak alapjait a népszámlálás teremtette meg, ahol már évszázadokkal ezelőtt is kérdezőbiztosok mindenféle érdekes dolgokat kérdezgettek az emberektől. Ennek a következő evolúciós lépcsője a kérdőívezés lett, ami mind a mai napig egy gyakran használt piackutatási módszer. Mi a baj a kérdőívezéssel? Egyrészt a mintavétel: még a legprecízebb, legkörültekintőbb mintavétel is tévedhet. Hogyan reprezentálhatná hűen 2.000 ember válasza egy millió ember gondolatait? Persze vannak korrekt statisztikai módszerek, de a hibázás lehetősége mindig fennáll. A másik probléma a válaszok minősége. Az emberek hazudnak és gyakran nem is tudják, hogy hazudnak. Ha Téged megkérdeznek, hogy mi a kedvenc színed, lehet, hogy ma azt mondod, hogy a piros… aztán 1 hét múlva rájössz, hogy amúgy az összes pólód sárga és elbizonytalanodsz. De addigra már leadtad a válaszodat, a nagy üzletemberek pedig már döntéseket hoztak az alapján.

Ezek tipikus small data-s problémák.

Majdnem Big Data

Ezekre a problémákra ad választ a big data-s gondolkodás mód. Ha big data alapon gondolkozunk, akkor nem megkérdezzük az embereket, hanem a megfigyeljük viselkedésüket. Így nem tudnak nekünk (és maguknak) hazudni. Emellett pedig nem csak 2.000 embert figyelünk meg, hanem az összeset.

Értelemszerűen ez a legkönnyebben a számítástechnikai és az ahhoz kapcsolódó területeken történhet meg, ahol minden kattintásból és egérmozgásból új adatsor születhet.

Ezen a logikán keresztül születtek meg az olyan ismert és használt projektek, mint a Google Analytics, a CrazyEgg vagy a Mixpanel.

Bár ezekben a projektekben minden felhasználó/látogató viselkedését letárolták, de még mindig nem számítanak Big Data-nak, mivel relatív még mindig elég kicsi adatmennyiségről és korlátok között mozgó, nem túl rugalmasan kezelhető adathalmazokról beszélünk (pl. csak az előre meghatározott riportokat lehet legyártani, nem lehet kettőt kombinálni)… De akkor mi a tényleg nagy?

Big Data

Az elmúlt évek (évtizedek) egyik fontos trendje volt, hogy az adattárolás ára folyamatosan és nagy erővel csökkent. Mára elértük azt az állapotot, hogy olyan olcsó adatot tárolni, hogy inkább elmentünk mindent és nem törlünk ki semmit. És ez a kulcsa a Big Data-nak! Letárolunk minden adatot, amit csak tudunk és nem törlünk ki belőle semmit, még évekre visszamenően sem. Ezt jellemzően már nem Analytics-szerű programokba pakoljuk, hanem saját adattáblákba (pl. SQL) vagy log-okba.

Így előbb vagy utóbb akkora adatbázisok jönnek létre, amivel egy számítógép már nagyon nehezen birkózik meg. Egy terabájtos nagyságú adathalmazt Excel-ben vagy SPSS-ben nyilván meg se próbálunk megnyitni. De egy rendes SQL lekérdezés is akár órákon, sőt napokon keresztül futhat rajta. Egész egyszerűen akármivel próbálkozik az ember (R, Python, etc.), azt látja, hogy elérte a számítási kapacitás tetejét és nem tudja értelmes időn belül feldolgozni az adatait.

És ekkor jönnek képbe a Big Data technológiák – aminek az alapja, hogy az adatainkon innentől fogva nem egy számítógép dolgozik, hanem akár több tíz vagy száz vagy még több. Legtöbbször ezek a cluster-ek könnyen és szinte végtelenül skálázódnak: minél több az adatunk, annál több erőforrást tudunk bevonni a feldolgozásába. Így újra normális idő alatt tudjuk elemezni az adatainkat. Viszont sok-sok számítógépet egybekötni és egyszerre dolgoztatni egy elemző script-en: új infrastruktúrát és új technológiát igényelt. Így született meg a Big Data technológiák széles tárháza és így kerültek be a köztudatba az olyan fogalmak, mint a Hadoop, a YARN, a Spark, a Pig és a többi divatos Big Data technológia.

Big Data evolúció cégen belül

Nézzük egy startup esetében, hogy működik a Big Data evolúció.

1. Először a korai szakaszban nincs adatelemző a cégnél, de nem akarnak vakon repülni. Ezért fel-setup-olnak egy Google Analytics-et, egy Mixpanel-t, meg egy CrazyEgg-et és nézegetik az adataikat.

2. Megvan az első 10.000 felhasználó. A cégvezetés rájön, hogy a Mixpanel és a CrazyEgg kezd drága lenni, meg amúgy sem mutatnak elég részletes riportokat. Így elkezdenek saját SQL táblákat építeni és szabad szöveges log-okat gyártani. Ezt pedig valaki elemezgeti, különbözős SQL, Python vagy R script-ekkel.

3. Továbbra is növekszik a felhasználószám és az elemző(csapat) ekkor már arra panaszkodik, hogy 10-20 perc alatt sem futnak le az elemző script-jeik. Aztán, amikor elérik a több órás futás időket, rájönnek, hogy szükség lesz egy Big Data technológiára és elkezdik guglizni, hogy mi is az a Hadoop… :-)
Remélem ez a rövid összefoglaló segít eloszlatni egy kicsit a ködöt a Big Data mítosz körül. Ha pedig több tudásra van szükséged a témában, a szeptember 17-i Big Data tréningünkre még van 2 hely.

Hamarosan folytatom a témát egy új cikkel! Ha értesülni akarsz róla, iratkozz fel!

Tomi

Mobil App mérések – miért, mit és hogyan?

Tudtad, hogy a letöltött mobil app-ok 80%-át az első használat után törlik a felhasználók a telefonjukról? Hogy bent maradj a kellemes 20%-ban, elengedhetetlen, hogy reagálj a user-eid viselkedésére! Ehhez pedig mérned kell. Ugyanúgy, mint desktop-os internetes alkalmazásoknál… habár az elmélet és a gyakorlat is egy kicsit más. Ebben a cikkben leírom azt a néhány best practice-t, amivel már könnyen el tudod kezdeni a mobil app-od mérését!

MIÉRT MÉRJEM A MOBIL APP-OM?

Az egyik legfontosabb kérdés, hogy miért is mérsz? Erről már többször is írtam, de nem győzöm mindig hangsúlyozni, hogy akármit is mérsz: legyen egy jól definiált üzleti célod!
Ezt a célt állapotban két dolog határozza meg (Rajtad kívül). Az egyik, hogy milyen bizniszben vagy, a másik pedig hogy milyen szakaszában a növekedésnek.

Ha pl. egy érett e-commerce bizniszen dolgozol, akkor az egyik legfontosabb célod a Revenue, azaz a bevételed lesz.
Ha egy korai fázisú startup-on, akkor inkább az engagement-re és az activation-re fókuszálj, azaz arra, hogy a felhasználók egyáltalán megértsék a termékedet és elkezdjék használni – no meg persze, hogy elégedettek legyenek vele.
Egy feltörekvő média oldalnak pedig általában a retention-re fekteti a hangsúlyt, tehát a visszatérő látogatók számára és a visszatérések sűrűségére.

Ha megvan a célod, akkor már könnyen választ adhatsz a miért-re. Azért mérsz, hogy ezt a célt minél könnyebben elérd és ha nem sikerül, akkor megértsd, hogy miért nem sikerült. És persze, hogy tudd, hogy hol, mikor, mit és hogyan kell változtatnod.

MIT MÉRJEK A MOBIL APP-OMBAN?

Egy mobil app persze elég speciális biznisz. Van egy-két dolog, amit a legtöbben mérnek és ami gyakorlatilag kikerülhetetlen, ha ezen a területen dolgozol. A 3 leggyakoribb:

1. Onboarding funnel

Mobil App Onboarding Funnel
Mobil App Onboarding Funnel

Ahogy a képen is látszik, az onboarding során lépésről lépésre kiesnek az emberek. pl. 1300-an letöltik az app-ot, 800-an elindítják, 400-an beregisztrálnak, 100-an pedig elkezdik használni tényleg a terméket, stb, stb… A lényeg, hogy lásd, hogy hol esnek ki a legtöbben és, ha ez a szám nagyon nem illik az elképzeléseidbe, akkor tudd, hogy ott valamit változtatnod kell.

A mobil app-oknál a legtöbb onboarding funnel így néz ki.
1. lépés: Letöltések száma (pl. 1000 db)
2. lépés: Launch (pl. 800 db)
3. lépés: Regisztráció (pl. 600 db)
4. lépés: Elkezdik használni a terméket (pl. 400 db)
5. lépés: Végére érnek az első körnek, a tanulási (más néven onboarding) folyamatnak (pl. 200 db)

Az 5. lépés egyébként trükkös, ezért szét szoktuk bontani 3-4 allépésre. Akkor vesszük úgy, hogy egy felhasználó elérte az 5. lépést és “onboarded” lett, ha már tudjuk, hogy minden olyan funkciót használt, ami kell ahhoz, hogy értse a termék előnyeit.
pl. ha egy idegenvezető mobil app-od van, ami a füledre mondja egy városban, hogy merre menj és mit kell tudni a nevezetességekről, akkor valami ilyesmi lehet az onboarding funnel-ed vége:

4. lépés: Kiválaszt a user egy túrát.
5. lépés: Odamegy a túra kezdőpontjára.
6. lépés: Elindítja az audio guide-ot.
7. lépés: Eljut a túra felére.
8. lépés: Végigér a túrán.

Aki végigért a túrán, nagy eséllyel találkozott az app összes főfunkciójával és érti, hogy mi a jó benne. Utána, hogy újra használja-e már, az egy másik kérdés.

2. Retention – visszatérés

Az egyik legütősebb metrika a felhasználó elégedettség vizsgálatára: a visszatérések száma és aránya. Tehát azok közül, akik múlt héten használták az app-odat, hányan használják újra. Itt nem feltétlenül megnyitásról beszélünk, hanem pl. egy core-feature használatáról (mint pl. a spotify-nál a zenelejátszás).

Itt is érdemes Neked definiálnod, hogy mi az ideális visszatérési sűrűség. Pl. ha egy média app-od van (, ahol naponta jelennek meg új cikkek,) vagy egy self-tracker alkalmazásod (, ahova minden reggel beírod, hogy milyen kedved van), akkor érdemes napi retention-t mérned. Egy Uber típusú app-nál a heti retention már logikusabbnak tűnik, egy repülőjárat kereső alkalmazásnál pedig akár a (több-)havi retention is indokoltnak tűnhet, hiszen a legtöbb ember amúgy sem utazgat minden héten vagy hónapban repülővel. (Azért törekedj minél kisebb retention time-ot belőni, mivel ha változtatsz valamit az app-odban és szeretnéd a retention-re gyakorolt hatását látni, mindig annyit kell majd várnod az első adatpontodra, amekkorára a retention definíciód be van állítva.)

Ha ez megvan, akkor nincs más dolgod, minthogy meghatározd a napi, heti vagy havi visszatérő látogatóid számát és arányát. És, hogy próbáld ezt a számot minél magasabbra tolni!

A retention címszó alatt még több dolgot is mérhetsz. Pl. a churn, azaz a lemorzsolódások aránya (pl. hányan uninstall-álták az alkalmazást, vagy hányan nem tértek vissza legalább a retention time-od 10-szereséig.) Vagy idetartozik az active/passive user-ek aránya. Azaz, hogy az összes user-edből hány % aktív.

3. Revenue – bevétel

A bevételt is többféleképpen mérheted. Itt persze attól is függ a dolog, hogy pontosan, hogy monetizálsz (fizetős app? reklámokból? in-app eladásokból? stb…), de a leg fontosabb alapmérések:

  • Első fizetésig eltelt idő
  • Fizetős user-ek aránya (hány ingyenes felhasználóra jut egy fizetős)
  • Havi átlagos bevétel user-enként
  • CLV – Customer Lifetime Value: Ez már egy összetettebb számítás, ami megmutatja, hogy az adott lemorzsolódási arányok és havi átlagos bevételek mellett egy user kb. mennyi pénzt termel az applikáción keresztül Neked onnantól, hogy beregisztrált, egészen addig, hogy letörli az app-ot.
    customer lifetime value mobil app mérés

Ez most csak 3 dolog – onboarding, retention és revenue -, de az alapok lefektetéséhez elég, aztán lehet továbbrészletezni még…

HOGYAN MÉRJEM A MOBIL APP-OM?

A millió dolláros kérdés: milyen eszközzel mérjem a mobil app-omat?
A jó hír hogy rengeteg lehetőség van…
Amit mindenképpen ajánlok az a Google Mobile Analytics. Ingyenes, mindent tud, ami kellhet. A korlátai pedig ugyanazok, mint a Google Analytics-nek. Csak report-olásra jó.
Ha szeretnél eggyel továbblépni, akkor itt is a Mixpanel az egyik legerősebb játékos a piacon. A Mixpanel-lel már viselkedés alapján tudsz szegmentálni, automatizált e-mail marketing-et beállítani, stb…
Ezeken kívül még rengeteg tool létezik, pl. az ingyenes Flurry Analytics vagy a kifejezetten crash-ek mérésére szolgáló Crashlytics – de azt is kevesen tudják, hogy az Optimizely-t is lehet használni mobil app AB-tesztelésre…

Egy szó mint száz

A lehetőségek és az eszközök adottak! Kezdd el mérni az app-odat és meglátod, sokkal tudatosabban, gyorsabban és eredményesebben tudsz majd fejlődni!
Sok sikert!

Ha szeretnél még ilyen cikkeket olvasni, iratkozz fel a hírlevelünkre!

Mester Tomi

Hogyan mérd az MVP-det?

Mostanában több viszonylag korai fázisú – MVP startoltatás előtti pillanatokban levő – startuppal is dolgoztunk 1-2-3 konzultáció erejéig – és mindig ugyanaz volt a kérdés: ha megvan az MVP, akkor hogyan – és főleg mit mérjünk?

Itt 3 főelv van:
1. Az OMTM-elv
One Metric That Matters – azaz egy darab célt jelölj ki! Egyet és ne többet! És ezt az egy célt helyezd a méréseid fókuszába. Hogy ez mi legyen azt iszonyatosan fontos már a startolás előtt, a legelején eldönteni.
Sok olyan cég van, aki megérzésből nyomja a dolgokat és adatok nélkül dönt. Aztán vagy bejön nekik vagy nem. De a másik véglet sem jobb – ha az ember 40 dolgot figyel egyszerre, akkor előbb-utóbb azon kapja magát, hogy egész nap csak a chart-okat nézegeti, de értelmes és értékes döntést még nem sikerült hoznia. Ha túl sok mindent mérsz, az összezavarhat. Legyen meg a fókusz: Mérj egy dolgot és határozza meg az, hogy merre mész tovább!

2. Engagement központúság
És hogy mi legyen az a bizonyos “Egy Mérés, Ami Számít”?
Természetesen ez a termékedtől függ, de MVP fázisban az biztos, hogy ez a metrika valahol az engagement, azaz a felhasználói elégedettség környékén keresendő.
NEM jó OMTM a regisztrált felhasználók száma. A regisztrált felhasználók száma semmilyen érdembeli visszajelzést nem ad a termékedről, maximum a value proposition-ödről (de azt jó esetben validáltad már eddigre landing page tesztekkel és kvalitatív vizsgálatokkal) vagy a marketing erődről. Egy csomó embert hallok büszkélkedni, hogy elérte a 1.000 (2.000, 5.000, stb…) regisztrált felhasználót. De ha ebből 10-15 aktív felhasználója van, akkor bizony az a 2.000 nem sokat ér.
NEM jó OMTM a bevétel nagysága/fizetések száma sem. Ehhez még túl korai szakaszban van a termék – úgyse fog elég pénz bejönni, akkor meg kár ezen stresszelni magadat.

A jó OMTM a termék használatára vonatkozik. Használják-e az emberek a főfunkcióidat? Minden funkciót használnak vagy csak néhányat? Úgy használják, ahogyan tervezted? És a legfontosabb: az első látogatás/regisztráció után visszajönnek mégegyszer használni a termékedet?

Jó mérőszámok lehetnek:
– az aktivált felhasználók száma  (pl. a Spotify-nál aktivált felhasználó az, aki beregisztrál és meg is hallgat legalább egy számot – a Prezinél aktivált felhasználó, aki beregisztrál, elkészíti és bemutatja az első prezijét, stb…)
– az aktivált felhasználók aránya (ugyanaz, mint a fenti, csak %-ban, hogy lásd, hogy a regisztráltak mekkora része aktiválódik)
– a visszatérő felhasználók aránya. Hányan döntenek úgy, hogy újra használják a termékedet?
– a visszatérés ideje. Mennyi idő után jönnek vissza az emberek? 1 nap, 1 hét, 1 hónap?

És emellett persze folyamatosan monitorozd azt, hogy melyik feature-öket használják az emberek és melyikeket nem.

3. Csináld meg egyszerűen!
Ebben a szakaszban az a lényeg, hogy gyorsan tudj mérni – ne tölts vele túl sok időt. Mivel lehet ezt megoldani? Ha csak nincs a kisujjadban a log-gyártás, akkor smart tool-okkal. Tök őszintén: valószínűleg egy jól beállított (konverziók, demográfia, stb.) Google Analytics is elég lesz. Ha pro akarsz lenni, akkor vagy egy Kissmetrics-et vagy egy Mixpanel-t felteszel az Analytics helyett, de ennél többre valószínűleg tényleg nem lesz szükséged ebben a szakaszban.

Mégegyszer összefoglalva:
1. Egy dolgot mérj!
2. Ez az egy dolog a termék használatára és a felhasználói elégedettségre fókuszáljon!
3. A lehető legegyszerűbben valósítsd meg (Analytics, Kissmetrics vagy Mixpanel)

Ha pedig egy szinttel feljebb lépnél, gyere el az Adatvezérelt Marketing Képzésünkre, ahol beszélünk linkkövetésről, AB-tesztelésről, UX kutatásról, a lepattanó user-ek visszanyeréséről és megannyi finomságról, ami ebbe a cikkbe már nem fért bele (még 6 szabad hely van)! :-)
http://adatlabor.hu/adatvezerelt-marketing-trening/

Mester Tomi

(Inspiráció: leananalyticsbook.com)

Business Intelligence/Big Data webinar I. rész

Közkívánságra elindítjuk a Business Intelligence/Big Data webinar sorozatunkat!
Az I. rész a “Smart Tool-ok (minden, ami nem Google Analytics)” címet kapta.
Itt tudtok regisztrálni:     adatlabor.eventbrite.co.uk

Adatlabor logoIdőpont: Jan 21. szerda 18.00-19.30

A tartalma pedig:
Eszközök, szoftverek, smart tool-ok és praktikák, amelyeket rendszeresen használunk a big data, az adatelemzés és az üzleti intelligencia gyakorlása közben.
Konkrét, valós üzleti esettanulmányokkal.

Tárgyalt szoftverek és módszerek:
– Mouseflow (és konkurensei)
– Optimize.ly (és konkurensei)
– Marketing A/B teszt
– Linkkövetés (utm, bit.ly, stb…)
– Mini-piackutatások
– Najó és egy kis Google Analytics (de csak az expertebb dolgok ;-))

Csak olyan dolgokról lesz szó, amit rögtön a webinar után akár Te is meg tudsz csinálni! Kódolást és bonyolultabb fogalmakat nem érintünk (az majd jön legközelebb :-)).
75 perc + Q&A

Mester Tomi adatlabor
fotó: Hámori Zsófia

Előadó:
Mester Tomi üzleti intelligencia elemző és tanácsadó, az adatlabor.hu alapítója és szakmai vezetője. Növekedésben levő cégeknek segít az adatelemzési és big data stratégiájuk kidolgozásában – továbbá abban, hogy ezeket az eszközöket a vevőszerzés, a magasabb vevőelégedettség és végeredményben persze a több profit elérésére tudja felhasználni minden partnere. Korábban a Prezi.com-nak dolgozott. Jelenlegi ügyfelei az e-kereskedelem, az online média és az online szolgáltatások területéről érkeznek.
Másik szenvedélye a nyilvános beszéd. Alapítótagja és CC-szintű beszélője az első magyar nyelvű Toastmasters klubnak. Előadó továbbá adatelemzés témában olyan fórumokon, mint a TEDx, BI Forum, Internet Hungary, PechaKucha Nights, Global E-commerce Summit 2015 @Barcelona, stb. Több info itt.

Ára: 4000 ft + ÁFA

Tehát a jelentkezés mégegyszer:
LINK: adatlabor.eventbrite.co.uk
ÉS A GYORS REG:

Tomi

Milyen hosszú egy jó blogbejegyzés?

A Medium.com válasza: 7 perc. Legalábbis a Medium-on. De ők big data alapon is megnézték.
A helyes válasz persze az, hogy ez teljesen blogfüggő, közönségfüggő és természetesen helyzetfüggő is. De a lényeg mégis csak az, hogy ha belenézel az adataidba, akkor még azt is ki tudod szedni belőle, hogy a Te oldaladon milyen hosszú lenne egy ideális blogbejegyzés.

Nézzük, a Medium hogyan csinálta. Először is fogták az összes cikküket és mindegyiken megnézték, hogy milyen hosszú, hány perc lenne elolvasni (ez a szavak számából nagyjából számítható). Aztán fogták az összes cikkük tényleges olvasási idejét, azaz azt, hogy a felhasználók valójában mennyi időt töltenek az oldalakon. Értelemszerűen, ha ez az idő kevesebb, mint a cikk becsült hosszúsága, akkor a felhasználók nem olvassák végig a cikket, azaz az túl hosszú. Ha jóval több időt töltenek az oldalon, abból pedig arra lehet következtetni, hogy még tudnák olvasgatni, visszanéznek egy-két részt, ami tetszett nekik. Erre nem mondanám, hogy túl rövid, inkább azt, hogy közel optimális.
De ennél a Medium még mélyebbre ásott. Ők minden cikken azt mérik, hogy mekkora az össz-olvasási idő – azaz ha egy cikket 1.000 ember olvasott átlagosan 60 másodpercig, ott 60×1.000=60.000 másodperc az össz-olvasási idő. Ha egy másik cikket csak 50-en néztek, de azt 300 másodpercig átlagosan, ott 50×300=15.000 mp az össz-olvasási idő.
Ez alapján kirajzoltatták a legsikeresebb, azaz a legnagyobb össz-olvasottsági idejű cikkeiket. A maximum a 7 perc hosszúságú cikkeknél van.

milyen hosszu a jo blogbejegyzes
Milyen hosszú a jó blogbejegyzés?

Természetesen sok blognak soha nem lesz annyi olvasója és akkora adathalmazai, mint a Mediumnak, azért az adatvezérelt gondolkodás példaértékű. Igenis érdemes olyan szubjektív tartalmaknál is, mint egy blogbejegyzés, adatelemezni és kideríteni, hogy mi az, amit szeretnek az olvasóink és mi az, amit kevésbé.

Az átlagos olvasási idő pedig a Te Google Analytics projektedben is benne van – csak pár kattintás belőle össz-olvasási időt számítani. Úgyhogy vess rá egy pillantást és találd ki, hogy ez alapján miről is kéne szólnia a következő cikkednek!

Mester Tomi

A cikk az alábbi bejegyzés alapján írodott:
View story at Medium.com

Visszatérő vásárlók – big data az e-kereskedelemben

Láttad Mel Gibson-t a “Mi kell a nőnek?” című filmben? Tudod mitől sikeres? Nem attól, hogy jobban néz ki, mint a többi férfi. Nem is attól, hogy több pénze van. Hanem attól, hogy belelát a nők fejébe és pontosan azt tudja mondani és adni nekik, amire azoknak szükségük van. Most képzeld el, hogy Te ugyanezt meg tudod csinálni a webshopod, e-kereskedelmi boltod vásárlóival. Olvasni tudsz a gondolataikban és pontosan azt tudod nekik megadni, amire szükségük van. Egy ilyen vevő “szerelmes” lesz az internetes boltodba, állandóan visszatér majd és mindenkinek erről fog mesélni. A gondolatolvasás – legalábbis az interneten – ma már lehetséges. Úgy hívják: big data.

Az e-kereskedelmi adatelemzést nagyon kevesen csinálják megfelelő szinten – persze a Google Analytics ott van, sőt néha a vásárlási adatokra is ránéznek. De ennél sokkal több dimenzió van az adat-univerzumban. 3 példa:

1. A legnépszerűbb terméked – nem az, amelyiket gondolnád:
Nem csak a webshopok, de szinte az összes internetes oldal túlértékeli a tényleges vásárlások jelentését. A legtöbbet megvásárolt termék a valóságban sok mindent jelenthet: ott a legjobb az ár-érték arány, ott a legjobb a fotó az oldalon, ott a legjobb a leírás, ott van a legjobb helyen a kosár gomb, stb… Ami Téged érdekel, az viszont az, hogy mire vágynak a legjobban a látogatóid. Mert ha ezt megadod nekik, akkor biztos, hogy boldogok lesznek, továbbajánlanak és ők is visszatérnek. Ezt sok mindenből kiderítheted – milyen oldalról jönnek a felhasználóid, mennyire célirányosan keresnek, mik a személyes igényeik, milyen demográfiai csoportba tartoznak, milyen márkákért rajonganak… És a kedvencem: melyik terméket tették a legtöbben úgy a kosárba, hogy aztán mégsem fizettek és leléptek az oldalról. Te tudod, hogy a Te oldaladon melyik ez a termék?

2. A lélektani határ – viselkedéselemzés:
Nagyon sok látogató van az oldaladon, de ennek valószínűleg a legjobb esetben is csak 10%-a vásárol. De miért pont ők? Ha belenézel az adatokba, látni fogod, hogyan viselkednek (hova kattintanak, milyen termékeket néznek meg, mire keresnek rá, milyen rendszeresen jönnek vissza, pontosan mikor, stb...) a “sikeres”, valóban fizető és vásárló felhasználóid és hogyan viselkednek a “sikertelen”, vásárlás nélkül távozók. Az érdekesség az, hogy a sikertelen vásárlók között mindig van egy vékony réteg – mondjuk 10% – akiknek a viselkedése csak egy hajszálnyit különbözik a sikeresekétől. Ha őket el tudod csípni, máris megdupláztad a forgalmadat.

3. A visszatérés záloga:
Az egyszeri vásárlóból a többszöri vásárlás felé rögös út vezet. Egyáltalán tudod az arányt a visszatérő/egyszeri vásárlóid között? Nem mindegy. Mert a visszatérő vásárlók az evangelistáid. Ők azok, akik úgy beszélnek a márkádról, hogy bezzeg ők ott vásárolnak. Ha őket elemzed, megfigyelheted a visszatérés okát: szezonalitás, szülinapok, feleség szülinapja (ajándékvásárlás esetén), bizonyos akciók megjelenése, bizonyos termékcsoport megjelenése.

És ez még csak a csúcs. A Big Data jéghegyének pont az a lényege, hogy az igazi tudás a webshopod felszíne alatt rejtőzik. És ma már hozzá tudsz férni.. A kérdés csak az, hogy akarsz-e. Ha igen, írj és segítünk: http://adatlabor.hu/kapcsolat/

Mester Tomi