Eigene Rule sprengt das Memory Limit
am 11.09.2011 - 12:30 Uhr in
Hallo Forum,
Ich habe seit einiger Zeit Probleme mit meiner Drupal Installation auf www.fck-handball.de
Neben einigen Problemen mit Pathauto und Auto Nodetitles habe ich nun ein Problem mit dem Memory Limit.
Mein Skript ruft von dem Handball-Ergebnisdienst SIS via XML Ergebnisse und weitere Infos zu Spielen herunter.
Diese speichere ich via node_save in der Drupal DB ab.
Da ich darauf angewiesen bin alle Spiele einer Liga (132) auf einmal abzurufen wollte ich diese auch gerne auf einmal abspeichern können.
Jedoch ist bei maximal 66 Spielen leider Schluss. Denn dort wird das Memory-Limit erreicht (96 MB).
Ich habe mittels
<?php
memory_get_usage()
?>Ich lösche bereits jedes mal den Inhalt von $node und sogar die Daten meines zu durschlaufenden Arrays sobald diese nicht mehr verwendet werden.
Gibt es zum reduzieren des Speicherbedarfs von node_save eine Möglichkeit?
MfG
Sawascwoolf
- Anmelden oder Registrieren um Kommentare zu schreiben

Hast du schon einmal
am 11.09.2011 - 18:59 Uhr
Hast du schon einmal versucht, das Modul Feeds für den Import der XMLs zu nutzen ?
Rein theoretisch sollte dies mit einem entsprechenden Field-Mapping auch möglich sein, die Daten zu importieren - ich kenn nur die Struktur / Anmeldung bei SIS etc. nicht..
Das Feeds Modul findest du hier:
http://drupal.org/project/feeds
http://drupal.org/project/xml_parser
SteffenR
Memorylimit
am 11.09.2011 - 21:07 Uhr
sorry wenn das zu trivial klingt - schon mal den Provider wg. PHP-Memorylimit kontaktiert?
Mittlerweile müssten sich die Provider doch allmählich an den höheren Bedarf aktueller Skripte gewöhnen ;-)
das angebotene Memorylimit im Paket ist eben auch ein Auswahlkriterium ...
Ja bei meinem Anbieter habe
am 12.09.2011 - 07:00 Uhr
Ja bei meinem Anbieter habe ich schon nachgefragt.
Dort ist das Upgrade auf 128MB leider nur durch das nächst teurere Paket möglich (aktuell 4€ das andere 10€/Monat)
Ein Anbieterwechsel ist auch nicht möglich, es wurde gerade der Vertrag für 2 Jahre verlängert.
Feed hatte ich mir zu Beginn mal angeschaut (war aber viellaucht auch Feeds).
Aber ich werde mir das jetzt nochmal ansehen und gucken obs vielleicht doch damit geht.
MfG
Sawascwoolf
Also ich habe Feeds getestet.
am 16.09.2011 - 13:11 Uhr
Also ich habe Feeds getestet. Leider ist es nicht das richtige für meine Zwecke. Bei dem Import der XMLs werden bis zu 6 unterschiedlicher Node-Typen erstellt die auch noch nach einem CCK Feld gegenseitig aufeinander referenzieren.
Diese Konstellation zu erreichen wäre mit Feeds wesentlich komplizierter als dieses selbst zu programmieren.
Ich habe nun die Arbeit aufgeteilt und erstelle pro Cron Durchlauf nur noch maximal 45 Nodes.
Dadurch ist das Problem leider nicht behoben, sondern nur umgangen, also wenn noch jemand eine Lösung dafür hat immer her damit.
MfG
Sawascwoolf