<< Fare clic per visualizzazione il sommario >> Percorso: API di piattaforma > JamioPlug > JamioPlug Elastic Storage > MergeByCsvWithFilter |
Esegue una serie di aggiornamenti su un indice del plug ElasticStorage utilizzando i dati presenti in un CSV: per ogni riga viene eseguito un aggiornamento dei Dataset che corrispondono ai campi del CSV specificati.
Le righe del CSV che non possono essere utilizzate per aggiornare i Dataset vengono restituite opzionalmente in un file CSV di scarto.
Metodo
PlugElasticStorage/MergeByCsvWithFilter
Input |
|||
Nome |
Descrizione |
Tipo |
Opzionale |
token |
Il token di sessione (per la sessione corrente nel dominio corrente potrebbe essere null o vuoto). |
String |
Y |
configurationReference |
Collegamento alla risorsa di tipo configurazione del Plug Elastic Storage da utilizzare. E' possibile specificare un collegamento con valorizzata solo la proprietà Name pari al Nickname di una configurazione esistente. |
Reference
|
|
inputFile |
Collegamento alla risorsa contenente il file in formato CSV con i dati da importare. Può essere un riferimento ad una risorsa di tipo Attachment, FileComponent, un allegato di processo, una risorsa Document o un'altra risorsa contenente attachments. Se la risorsa è di tipo Document e contiene più componenti file viene utilizzato: •il componente principale se è di tipo File e contiene un CSV; •in assenza di componente principale, deve esserci un solo componente di tipo File che contiene un CSV. Se la risorsa contiene una lista di attachments, deve esserci un solo file di tipo CSV. Tra i campi del file CSV è possibile specificare un campo identificativo, secondo le logiche qui riportate. |
Reference |
|
options |
Definisce le opzioni di conversione da applicare ai dati riportati nel file CSV prima del salvataggio nella configurazione del plug Elastic Storage. Se per una colonna del CSV non viene specificato il ColumnType tramite CsvToListConversionOptions, qualunque contenuto del campo viene interpretato come una stringa, mentre specificando il ColumnType si hanno nella configurazione del Plug Elastic Storage campi numerici, date, booleani o stringhe, secondo quanto richiesto. |
Y |
|
filter |
Criteri di filtro, per filtrare i Dataset dell'indice del Plug Elastic Storage da aggiornare con ogni riga del file CSV. Il soggetto del filtro è il nome della colonna nell'indice del Plug Elastic Storage. Il predicato del filtro è uno di quelli validi per i cataloghi di Elastic Storage. Il complemento del criterio del filtro, se presente, deve essere specificato con una espressione. L'espressione deve essere riportata tra apici è può essere un valore costante oppure un valore disponibile nel file CSV fornito in input con il parametro inputFile. Ogni riga del file CSV viene gestita come contesto su cui poter eseguire delle operazioni. Il contesto del complemento è denominato #data e contiene la riga iesima oggetto di verifica. Ad esempio per riferirsi al valore contenuto nella colonna Importo del file CSV occorre scrivere #data[''Importo'']. E' possibile eseguire dei calcoli o delle concatenazioni sui valori del CSV. Per i valori di tipo numerico decimale e numerico a virgola mobile il separatore dei decimali da utilizzare è il punto. Sono qui riportati degli esempi. |
|
|
commonFields |
Dato strutturato che riporta un insieme di campi comuni, il cui valore deve essere riportato nelle righe del CSV. Se il campo specificato in CommonFields non è presente nelle righe del CSV, esso viene accodato, altrimenti viene sovrascritto. Se il campo specificato in CommonFields è presente nelle righe del CSV ed ha un formato diverso da quello specificato nel ColumnTypes, viene sovrascritto sia nel valore che nel formato. Ad esempio, se il campo "Importo" nel ColumnTypes è definito come intero, ma in CommonFields è definito come stringa, allora verrà riportato nella configurazione di Elastic Storage come stringa. |
Dataset |
Y |
skipErrors |
Indica se proseguire o meno nel caso in cui una riga del CSV presenta degli errori di conversione dei campi o riporta un numero di campi diverso da quello previsto. Se True, nel caso di errori, verrà generato nel returnValue uno ScrapReport contenente i valori scartati e i relativi messaggi d'errore. |
Boolean |
Y |
Output |
|||
Name |
Description |
Type |
Optional |
returnValue |
Dato strutturato con i seguenti campi: •TotalItems: numero di righe da processare (numero totale di righe meno quelle di intestazione); •ProcessedItems: numero di righe del file CSV processate correttamente; •ScrappedItems:numero di righe del file CSV processate con errore o non processate per interruzione del Job; •ScrapReport: file .zip contenente tutte le righe del file CSV, con aggiunta di tre colonne: numero di Dataset aggiornati dalla riga corrente, codice di errore e descrizione; •JobStatus: enumerativo che indica lo stato finale del job (Completed o Canceled). |
Dataset |
|
Commenti
Tra le opzioni di conversione elencate in CsvToListConversionOptions, vengono gestite nella configurazione del Plug Elastic Storage solo le seguenti:
•Delimiter
•QuotedFields
•ListOfDataset (è sempre assunto pari a true)
•HeaderRow
•ColumnHeader
•ColumnTypes
•ColumnFormats
•CultureInfo
mentre vengono ignorate:
•IgnoreLineBreaks
•ListOfDataset se valorizzato come false
E' opportuno specificare sempre nelle opzioni di conversione del CSV il parametro cultureInfo, per evitare errori di conversione dovuti ad una diversa interpretazione del formato di numeri e date per una regione o paese.
Se il CSV riporta un campo _id o Id, viene ignorato in fase di aggiornamento del Dataset dell'indice del Plug Elastic Storage.
Le righe del CSV vengono convertite in istruzioni per l'aggiornamento dei dati nell'indice del Plug Elastic Storage. Durante la conversione se:
•skipErrors è uguale a false, al primo controllo fallito la procedura viene interrotta e viene restituita un'eccezione.
•skipErrors è uguale a true, la procedura viene eseguita per tutte le righe del CSV e nel Report restituito vengono segnati i codici e i messaggi di errore in corrispondenza delle righe che li hanno generati.
Se il job viene sospeso, il processo resta nello stato idle in attesa di ripresa o interruzione.
Il metodo si comporta come segue:
Restituisce |
Condizione |
Errore |
Se la proprietà ColumnTypes delle opzioni di conversione contiene campi non esistenti |
Errore |
Se nel DataSet ottenuto dal CSV, dopo l'applicazione delle opzioni di conversione, sono presenti entrambe le colonne di nome "Id" e "_id" |
Errore |
Se il DataSet ottenuto dal CSV, dopo l'applicazione delle opzioni di conversione, contiene un campo che si chiama "_id" o "Id" e questo è di tipo diverso da testo breve e numerico intero. |
Errore |
Se inputFile contiene una Reference ad una risorsa non contenente alcun file di tipo CSV |
Errore |
Se inputFile contiene una Reference ad una risorsa contenente più di un file di tipo CSV |
Errore |
Se configurationReference è una risorsa inesistente |
Errore |
Se il CSV contiene un numero di colonne differente da riga a riga |
Errore |
Se il Job è in stato faulted. |
Autorizzazioni
Per eseguire il metodo è necessario possedere il permesso di Utilizzo sull'indice del Plug Elastic Storage.
Esempi complementi espressioni
Esempio1
Sulla colonna “Nro Civico” di tipo testo dell'indice del Plug Elastic Storage, si vuole creare un filtro sui Dataset con valore '50'
CatalogFilter('Nro Civico','EqualsTo',false,'50') |
Esempio2
Sulla colonna 'Importo totale' di tipo numerico decimale dell'indice del Plug Elastic Storage, si vuole creare un filtro sui Dataset con valore pari a quello del campo 'Importo' del CSV
CatalogFilter('Importo totale','EqualsTo',false,'#data[''Importo'']') |
Esempio3
Sulla colonna 'Contatto' di tipo testo dell'indice del Plug Elastic Storage, si vuole creare un filtro sui Dataset con valore pari a quello dei valori concatenati campo 'Surname', spazio, campo 'Name' del CSV
CatalogFilter(‘Contatto’, ‘EqualsTo’,false,'#data[''Surname''] + ' ' + #data[''Name'']') |
Esempio4
Sulla colonna 'Importo totale' di tipo numerico decimale dell'indice del Plug Elastic Storage, si vuole creare un filtro sui Dataset con valore pari a quello di un calcolo aritmetico su due campi del CSV
CatalogFilter('Importo totale', ‘EqualsTo’,false,'(#data[''Value''] + #data[''RealValue'']) / 2') |