Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
La cache di livello 1 in Generatore API dati riduce le richieste ridondanti al database memorizzando temporaneamente nella cache i risultati dell'entità in memoria. Questa memorizzazione nella cache migliora le prestazioni per le query frequenti ed evita di raggiungere il database inutilmente.
Abilitare la cache a livello globale
Per abilitare la memorizzazione nella cache, impostare la configurazione del runtime globale:
"runtime": {
"cache": {
"enabled": true,
"ttl-seconds": 60
}
}
-
enabled: richiesto. Attiva la memorizzazione nella cache a livello globale. -
ttl-seconds: facoltativo. Definisce il tempo predefinito (in secondi) per gli elementi memorizzati nella cache.
Vedere Impostazioni della cache di runtime.
Abilitare la cache per entità
Ogni entità deve anche acconsentire esplicitamente all'uso della cache:
"MyEntity": {
"cache": {
"enabled": true,
"ttl-seconds": 30,
"level": "L1"
}
}
-
enabled: richiesto. Abilita la memorizzazione nella cache per questa entità specifica. -
ttl-seconds: facoltativo. Se non specificato, eredita dal valore TTL (Global Time-to-Live). -
level: facoltativo. Controlla quali livelli di cache vengono usati.L1utilizza solo cache in memoria;L1L2(impostazione predefinita) usa sia la cache in memoria che la cache distribuita.
Vedere Impostazioni della cache delle entità.
Annotazioni
La funzionalità Generatore API dati 2.0 descritta in questa sezione è attualmente in anteprima e potrebbe cambiare prima della disponibilità generale. Per altre informazioni, vedere Novità della versione 2.0.
Behavior
- Si applica solo agli endpoint REST.
- Funziona per ogni route, per parametro.
- La cache viene invalidata quando i dati vengono modificati (creazione, aggiornamento, eliminazione).
- L'entità
ttl-secondsesegue l'override globalettl-secondsdi .
Notes
- La cache di livello 1 è solo in memoria.
- Ideale per scenari con un numero elevato di operazioni di lettura con bassa volatilità dei dati.