Sveiki, kadangi neradau temos apie didelio kiekio duomenų importavimo iš nutolusio serverio, tai paklausiu. Teko susidurti su nemažu duomenų atnaujinimu(maždaug 500 000k prekių), kasdien. Prekės yra iš keleto failų, todėl sukasi ciklas. Realiai, updeitinant, atsinaujina tik kainos ir kiekis, todėl 1200prekių prasisuka maždaug per 30s. Pats duomenų nuskaitymas į masyvą trunka vos 5-6s. 5200 prekų. Manau čia išspaudęs viską, ką galėjau. Visas smagumas prasideda kaip nauji(įterpiant visiškai naujus įrašus) duomenys pradedami išsaugoti į duomenų bazę ir atsisiunčiami paveikslėliai. Kalbėsiu apie 5000 prekių kiekį. Su cron'ais lyg ir prasisuka skriptas tol kol įkeliama viskas, bet jeigu bandoma kelti, naudojant naršyklę(paspaudus tarkim import mygtuką), serveris po 5min nutraukia darbą. Nors dar kurį laiką per tą pačią naršyklę viskas buna užlužę, bet vistiek duomenys iki galo nebūna importuojami. 5min yra sesijos galiojimo laikas, kurios aš negaliu keisti, nes serveriai.lt neduoda kitokio.
Realiai man reikalingas šitas rankinis importas pirmam prekių įkėlimui, kad būtų galima peržiūrėti, importo klaidas ir po to ramiai palikti suktis tolimiasniam ciklui.
Įdomu, kaip kiti elgiatės tokioje situacijoje? Ar tiesiog palikti visą darbą cronjob'ams ir nedaryti jokiu rankinių valdymų ar vistik yra išeitis? Buvo mintis skaidyti masyvą dalimis, maždaug išsitenkant į 5min, paskutinius duomenis saugoti į sesiją ir automatiškai vėl užkrauti naują sesija nuo to paskutinio taško, bet man čia nerimta kažkaip.
Dar vienas klausimas būtų dėl cronjob darbo, ar visus duomenis importuojat vienu paklausimu ar skaidote dalimis? Pvz atskirai paveikslėliai ir duomenys? Ar tiesiog bendrai duomenis išskaidot į kelias užklausas?