1.3 KiB
1.3 KiB
| tags | project | |
|---|---|---|
|
NVRam Endurance Simulation |
Problemstatement: Wenn eine NVRam Simulation einen Fehler erzeugt, ist nicht ersichtlich, was genau nicht funktionierte.
Mögliche Lösungen:
Abspeichern des Log Protokolls des Simulators bei BedarfAbspeichern des Log Protokolls generell- Debug Umgebungsvariable für NVRam Backend + Simulator
- DEBUGMODE -> 1 an
Sich ergebende Fragen:
-
Wo speichern wir die Protokolle? -
Wie machen wir die Zuordnung Simulation auf Protokoll? -
Dashboard für Rev anpassen (Grafana) #nvram ✅ 2025-10-22
-
Wird der Pod Log in Azure gespeichert? #nvram ✅ 2025-10-22
- Zwar aktuell abgeschaltet für die Cluster aber das Default verhalten in Analytics ist es die Pod Logs zu speichern.
- In AppInsights packen (weil Worker Pod ephemeral ist). Logs in AppInsights sind 30 Tage (Traces). Log Analytics default 30 Tage
-
Zusammenfassen der Execution State und Simulator State #nvram ✅ 2025-11-14
-
README eintragen wie man eine neue Version release #nvram ✅ 2025-10-22
-
Neueste Version von NVRam auf REV deployen -> wir möchten den Worker nochmal debuggen, da er ein komisches Verhalten gezeigt hatte ✅ 2025-11-14
-
Serilog Schema verwenden als Debugmode
-
isVisible beim Deployment in PROD ✅ 2025-11-14