Hallo Roland,
ein nützliches Feature des GF, um z.B. Rechnerkapazitäten auszulasten, während man in großer Runde spannenden Dingen lauschen darf , wäre in meinen Augen die Erweiterung des GF um einen Batch-Betrieb.
Ein erster Schritt wäre die Möglichkeit, Parametersätze (str-, DEM-Dateien etc, GF-Einstellungen) speichern und erneut laden zu können. Das erspart gleichzeitig den Ärger, wenn man wieder mal vergessen hat, eine hft-Tabelle zu laden oder den Glättungsparameter sauber einzustellen.
Optimal wäre natürlich die Erstellung mehrerer Grundplatten "in Serie" auf der Basis zuvor definierter Parametersätze. Dann könnte der Job über Nacht laufen, und pünktlich zum Frühstück ständen verschiedene Landschaftsversionen zur Verfügung. Angesichts der Rechenzeiten für meine aktuellen Module von >30 min wäre das eine erhebliche "Marscherleichterung".
Grüße
Michael
Wunsch für GF-Erweiterung: Batch-Mode
Moderator: Roland Ziegler
- Michael_Poschmann
- Beiträge: 19889
- Registriert: 05.11.2001 15:11:18
- Aktuelle Projekte: Modul Menden (Sauerland)
- Wohnort: Str.Km "1,6" der Oberen Ruhrtalbahn (DB-Str. 2550)
- Roland Ziegler
- Beiträge: 5510
- Registriert: 04.11.2001 22:09:26
- Wohnort: 32U 0294406 5629020
- Kontaktdaten:
Ich nehme diesen Wunsch auf. Lässt sich vielleicht im Zuge der irgendwann mal stattzufinden habenden Umstellungen auf Zusi3 realisieren, momentan aber aus bekannten Gründen absolut keine Chance.
(Im Büro wird gerade mit einem Tool experimentiert, das brachliegende Rechnerkapazitäten im Netz zu Zwecken des Compilerlaufs missbraucht; sprich, die eigene Kiste wird entlastet, und bis zu einem Dutzend externe Rechenknechte werden kurzfristig "angemietet", um dort compilieren zu lassen. Das gibt tatsächlich einen Geschwindigkeitssprung um einen Faktor bis zu 10, und macht bei 1000en Dateien schon was aus. Vielleicht könnte ich auch den GF so umbauen, dass er von solcher Art "distributed Processing" profitieren könnte )
(Im Büro wird gerade mit einem Tool experimentiert, das brachliegende Rechnerkapazitäten im Netz zu Zwecken des Compilerlaufs missbraucht; sprich, die eigene Kiste wird entlastet, und bis zu einem Dutzend externe Rechenknechte werden kurzfristig "angemietet", um dort compilieren zu lassen. Das gibt tatsächlich einen Geschwindigkeitssprung um einen Faktor bis zu 10, und macht bei 1000en Dateien schon was aus. Vielleicht könnte ich auch den GF so umbauen, dass er von solcher Art "distributed Processing" profitieren könnte )
- Roland Ziegler
- Beiträge: 5510
- Registriert: 04.11.2001 22:09:26
- Wohnort: 32U 0294406 5629020
- Kontaktdaten:
Offtopic:Dann würden sich meine Kollegen sicherlich über die Sanduhr auf ihren Rechnern wundern...
Hab ich auch erst gedacht. Der Compiler in diesem Fall läuft auf den Remote-Systemen zwar mit normaler Prozesspriorität, wird aber von Scheduler wohl sofort rausgeworfen, wenn der lokale Benutzer irgendwelche Aktivitäten ausführt (soll ja vorkommen), worauf dort also scheinbar keine Einschränkungen zu verzeichnen seien.
- Oliver Lamm
- Beiträge: 3102
- Registriert: 04.01.2002 15:02:17
- Aktuelle Projekte: Aachen - Neuss für Zusi3
- Wohnort: Essen
- Kontaktdaten: