Informazioni di riferimento sulle API REST di Azure OpenAI nei modelli Di Microsoft Foundry v1

Versione API: v1

Variabili del server:

Variabile Predefinito Descrizione
Endpoint Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com

Autenticazione

Chiave API

Passare una chiave API con l'intestazione api-key .

Token di autenticazione

Passare un token di autenticazione con l'intestazione authorization .

Oauth2authoauth20

Flusso: implicito

URL autorizzazione:https://login.microsoftonline.com/common/oauth2/v2.0/authorize

Ambiti:

  • https://ai.azure.com/.default

Lotto

Creare un batch

POST {endpoint}/openai/v1/batches

Crea ed esegue un batch da un file caricato di richieste

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Intestazione richiesta

Nome Obbligatorio Digitare Descrizione
Accettare Vero Stringa
Valori possibili: application/json

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
completion_window Enum Il tempo entro cui il lotto deve essere elaborato. Attualmente è supportato solo 24h .
Valori possibili: 24h
Endpoint Enum Endpoint da usare per tutte le richieste nel batch. Attualmente /v1/chat/completions è supportato.
Valori possibili: /v1/chat/completions, /v1/embeddings
input_file_id Stringa ID di un file caricato che contiene le richieste per il nuovo batch.



Il file di input deve essere formattato come file JSON.
e devono essere caricati con lo scopo batch.
No

Risposte

Codice di stato: 201

Descrizione: la richiesta ha avuto esito positivo e una nuova risorsa è stata creata di conseguenza.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare i batch

GET {endpoint}/openai/v1/batches

Elencare i batch dell'organizzazione.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
Dopo Query No Stringa Un cursore per l'uso nella paginazione. after è un ID oggetto che definisce il tuo posto nella lista.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
Limite Query No Intero Un limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e
il valore predefinito è 20.

Intestazione richiesta

Nome Obbligatorio Digitare Descrizione
Accettare Vero Stringa
Valori possibili: application/json

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListBatchesResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recuperare batch

GET {endpoint}/openai/v1/batches/{batch_id}

Recupera un batch.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
batch_id Percorso Stringa ID del batch da recuperare.

Intestazione richiesta

Nome Obbligatorio Digitare Descrizione
Accettare Vero Stringa
Valori possibili: application/json

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Annullare il batch

POST {endpoint}/openai/v1/batches/{batch_id}/cancel

Annulla un batch in corso.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
batch_id Percorso Stringa ID del batch da annullare.

Intestazione richiesta

Nome Obbligatorio Digitare Descrizione
Accettare Vero Stringa
Valori possibili: application/json

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Chat

Creare il completamento della chat

POST {endpoint}/openai/v1/chat/completions

Crea un completamento della chat.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Audio OpenAI.CreateChatCompletionRequestAudio o null Parametri per l'uscita audio. Obbligatorio quando viene richiesto l'output audio con
modalities: ["audio"].
No
frequency_penalty number o null Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base a
la frequenza esistente nel testo fino a questo momento, riducendo il modello
probabilità di ripetere la stessa riga verbatim.
No
function_call string o OpenAI.ChatCompletionFunctionCallOption Deprecato a favore di tool_choice.
Controlla quale funzione (se ce n'è) chiamata dal modello.
none indica che il modello non chiamerà una funzione e genera invece un
Messaggio.
auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di un
Funzione.
Specifica di una funzione specifica tramite {"name": "my_function"} forza
modello per chiamare tale funzione.
none è il valore predefinito quando non sono presenti funzioni. auto è il valore predefinito
se sono presenti funzioni.
No
Funzioni matrice di OpenAI.ChatCompletionFunctions Deprecato a favore di tools.
Un elenco delle funzioni per cui il modello può generare input JSON.
No
logit_bias oggetto o null Modifica la probabilità che i token specificati compaiano nel completamento.
Accetta un oggetto JSON che esegue il mapping dei token (specificato dall'ID del token in
tokenizer) a un valore di distorsione associato da -100 a 100. Matematicamente
la distorsione viene aggiunta ai logits generati dal modello prima del campionamento.
L'effetto esatto varia in base al modello, ma i valori tra -1 e 1 devono
diminuire o aumentare la probabilità di selezione; valori come -100 o 100
deve comportare un divieto o una selezione esclusiva del token pertinente.
No
logprobs booleano o null Se restituire o meno logaritamiche probabilità dei token di output. Se true,
restituisce le probabilità di log di ogni token di output restituito in
content di message.
No
max_completion_tokens integer o null Limite superiore per il numero di token che possono essere generati per un oggetto
completamento, inclusi token di output visibili e token di ragionamento.
No
max_tokens integer o null Il numero massimo di token che possono essere generati nel completamento della chat.
Questo valore può essere usato per controllare i costi per il testo generato tramite API.

Questo valore è ora deprecato a favore di max_completion_tokense è
non compatibile con i modelli serie o1.
No
Messaggi matrice di OpenAI.ChatCompletionRequestMessage Un elenco dei messaggi che compongono la conversazione finora. A seconda del
modello usato, tipi di messaggio diversi (modalità) supportati,
come testo, immagini e audio.
Metadati OpenAI.Metadata o Null No
Modalità OpenAI.ResponseModalities Tipi di output che vorresti che il modello generasse.
La maggior parte dei modelli è in grado di generare testo, che è il valore predefinito:
["text"]
Il gpt-4o-audio-preview modello può essere usato anche per
generare audio. Per richiedere che questo modello generi
sia di testo che di risposte audio, è possibile usare:
["text", "audio"]
No
Modello Stringa ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAI
offre un'ampia gamma di modelli con diverse funzionalità, prestazioni
caratteristiche e punti di prezzo. Fare riferimento alla guida al modello
per esplorare e confrontare i modelli disponibili.
N integer o null Quante opzioni di completamento della chat generare per ogni messaggio di input. Nota che ti verrà addebitato in base al numero di gettoni generati in tutte le scelte. Tieni n in modo 1 di minimizzare i costi. No
parallel_tool_calls OpenAI.ParallelToolCalls Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. No
Previsione OpenAI.PredictionContent Contenuto di output stimato statico, ad esempio il contenuto di un file di testo
rigenerato.
No
└> contenuto stringa o matrice di OpenAI.ChatCompletionRequestMessageContentPartText Il contenuto che dovrebbe essere abbinato quando si genera una risposta al modello.
Se i token generati corrispondono a questo contenuto, l'intera risposta del modello
può essere restituito molto più rapidamente.
Tipo └* Enum Il tipo di contenuto previsto che vuoi fornire. Questo tipo è
attualmente sempre content.
Valori possibili: content
presence_penalty number o null Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base a
se appaiono nel testo fino a questo momento, aumentando la probabilità del modello
per parlare di nuovi argomenti.
No
prompt_cache_key Stringa Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo. Altre informazioni. No
prompt_cache_retention stringa o null No
reasoning_effort OpenAI.ReasoningEffort Vincola lo sforzo sul ragionamento per
ragionamento dei modelli.
I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
- gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.
- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.
- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.
- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max.
No
response_format OpenAI.CreateChatCompletionRequestResponseFormat Un oggetto che specifica il formato che il modello deve generare.
Impostazione di per abilitare { "type": "json_schema", "json_schema": {...} }
Output strutturati che assicurano che il modello corrisponda al codice JSON fornito
Schema. Altre informazioni negli output strutturati
guida
.
L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, che
garantisce che il messaggio generato dal modello sia JSON valido. Utilizzando json_schema
è preferibile per i modelli che lo supportano.
No
Tipo └* OpenAI.CreateChatCompletionRequestResponseFormatType
safety_identifier Stringa Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI.
Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni.
No
Seme integer o null Questa funzione è in fase Beta.
Se specificato, il nostro sistema farà il miglior sforzo per campionare deterministicamente, in modo che le richieste ripetute con gli stessi seed parametri e restituiscano lo stesso risultato.
Il determinismo non è garantito ed è necessario fare riferimento al system_fingerprint parametro di risposta per monitorare le modifiche nel back-end.
No
Fermare OpenAI.StopConfiguration Non supportato con i modelli o3 di ragionamento più recenti e o4-mini.
Fino a quattro sequenze in cui l'API smetterà di generare ulteriori token. Le
il testo restituito non conterrà la sequenza di interruzione.
No
Negozio booleano o null Indica se archiviare o meno l'output della richiesta di completamento della chat per
utilizzare nei prodotti di modellazione o di valutazione.
No
Flusso booleano o null Se impostato su true, i dati di risposta del modello verranno trasmessi al client
generato tramite eventi inviati dal server.
No
stream_options OpenAI.ChatCompletionStreamOptions o null No
Temperatura number o null No
tool_choice OpenAI.ChatCompletionToolChoiceOption Controlla quale (se presente) strumento viene chiamato dal modello.
none significa che il modello non chiamerà nessuno strumento ma genera invece un messaggio.
auto significa che il modello può scegliere tra generare un messaggio o chiamare uno o più strumenti.
required significa che il modello deve chiamare uno o più strumenti.
Specificare uno strumento particolare tramite {"type": "function", "function": {"name": "my_function"}} costringe il modello a chiamare quello strumento.
none è il valore predefinito quando non ci sono strumenti presenti. auto è la norma se sono presenti strumenti.
No
Strumenti matrice di OpenAI.ChatCompletionTool o OpenAI.CustomToolChatCompletions Un elenco degli strumenti che il modello può chiamare. È possibile fornire uno dei due
strumenti personalizzati o
strumenti per le funzioni.
No
top_logprobs integer o null No
top_p number o null No
Utente stringa (deprecata) Identificatore univoco che rappresenta l'utente finale, che può essere utile
monitorare e rilevare abusi.
No
user_security_context AzureUserSecurityContext Il contesto di sicurezza utente contiene diversi parametri che descrivono l'applicazione stessa e l'utente finale che interagisce con l'applicazione. Questi settori aiutano i team delle operazioni di sicurezza a indagare e mitigare gli incidenti di sicurezza fornendo un approccio completo alla protezione delle applicazioni IA. Altre informazioni sulla protezione delle applicazioni di intelligenza artificiale con Microsoft Defender per il cloud. No
Dettaglio OpenAI.Verbosity Vincola il livello di dettaglio della risposta del modello. I valori inferiori genereranno
risposte più concise, mentre valori più elevati generano risposte più dettagliate.
I valori attualmente supportati sono low, medium, e high.
No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json oggetto o oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Esempi

Esempio

POST {endpoint}/openai/v1/chat/completions

Completamenti

Creare il completamento

POST {endpoint}/openai/v1/completions

Crea un completamento.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
best_of integer o null Genera best_of completamenti lato server e restituisce il "migliore" (quello con la probabilità logaritaria più alta per token). I risultati non possono essere trasmessi.
Se usato con n, best_of controlla il numero di completamenti candidati e n specifica il numero di risultati da restituire: best_of deve essere maggiore di n.
Nota:* Poiché questo parametro genera molti completamenti, può utilizzare rapidamente la quota del token. Usa con attenzione e assicurati di avere impostazioni ragionevoli per max_tokens e stop.
No
Eco booleano o null Ripeti il prompt oltre al completamento No
frequency_penalty number o null Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo finora, riducendo la probabilità che il modello ripeta la stessa frase parola per parola.
Per altre informazioni sulle sanzioni relative alla frequenza e alla presenza, vedere.
No
logit_bias oggetto o null Modifica la probabilità che i token specificati compaiano nel completamento.
Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer GPT) a un valore di distorsione associato da -100 a 100. Matematicamente, il bias viene aggiunto ai logit generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente.
Ad esempio, puoi passare {"50256": -100} per impedire che il <token |endoftext> | venga generato.
No
logprobs integer o null Includi le probabilità logarime sui logprobs token di output più probabili, così come sui token scelti. Ad esempio, se logprobs è 5, l'API restituirà un elenco dei cinque token più probabili. L'API restituirà sempre il logprob del token campionato, quindi potrebbero esserci fino a un logprobs+1 massimo di elementi nella risposta.
Il valore massimo per logprobs è 5.
No
max_tokens integer o null Il numero massimo di token che può essere generato nel completamento.
Il numero di token del prompt più max_tokens non può superare la lunghezza del contesto del modello. Codice Python di esempio per il conteggio dei token.
No
Modello Stringa ID del modello da utilizzare. È possibile usare l'API List models (Elenco modelli ) per visualizzare tutti i modelli disponibili o vedere la panoramica del modello per le descrizioni.
N integer o null Quante completazioni generare per ogni prompt.
Nota:* Poiché questo parametro genera molti completamenti, può utilizzare rapidamente la quota del token. Usa con attenzione e assicurati di avere impostazioni ragionevoli per max_tokens e stop.
No
presence_penalty number o null Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla loro presenza nel testo fino a quel momento, aumentando la probabilità che il modello tratti di nuovi argomenti.
Per altre informazioni sulle sanzioni relative alla frequenza e alla presenza, vedere.
No
prompt stringa o matrice di stringhe o null No
Seme integer o null Se specificato, il nostro sistema farà il miglior sforzo per campionare deterministicamente, in modo che le richieste ripetute con gli stessi seed parametri e restituiscano lo stesso risultato.
Il determinismo non è garantito ed è necessario fare riferimento al system_fingerprint parametro di risposta per monitorare le modifiche nel back-end.
No
Fermare OpenAI.StopConfiguration Non supportato con i modelli o3 di ragionamento più recenti e o4-mini.
Fino a quattro sequenze in cui l'API smetterà di generare ulteriori token. Le
il testo restituito non conterrà la sequenza di interruzione.
No
Flusso booleano o null Se riportare indietro un progresso parziale. Se impostato, i token verranno inviati come eventi solo dati inviati dal server man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio. Codice Python di esempio. No
stream_options OpenAI.ChatCompletionStreamOptions o null No
Suffisso stringa o null Il suffisso che arriva dopo il completamento del testo inserito.
Questo parametro è supportato solo per gpt-3.5-turbo-instruct.
No
Temperatura number o null Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico.
Generalmente consigliamo di modificare questo o top_p , ma non entrambi.
No
top_p number o null Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.
Generalmente consigliamo di modificare questo o temperature , ma non entrambi.
No
Utente Stringa Altre informazioni. No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Esempi

Esempio

POST {endpoint}/openai/v1/completions

Contenitori

Elencare i contenitori

GET {endpoint}/openai/v1/containers

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
Limite Query No Intero Un limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e
il valore predefinito è 20.
Ordine Query No Stringa
Valori possibili: asc, desc
Ordina in base al created_at timestamp degli oggetti. asc per l'ordine crescente edesc
per ordine decrescente.
Dopo Query No Stringa Un cursore per l'uso nella paginazione. after è un ID oggetto che definisce il tuo posto nella lista.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
Prima Query No Stringa Un cursore per l'uso nella paginazione. before è un ID oggetto che definisce il tuo posto nella lista.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ContainerListResource

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare un contenitore

POST {endpoint}/openai/v1/containers

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
expires_after OpenAI.CreateContainerBodyExpiresAfter No
Ancoraggio └* Enum
Valori possibili: last_active_at
└* minuti Intero
file_ids matrice di stringhe ID di file da copiare nel contenitore. No
memory_limit Enum Limite di memoria facoltativo per il contenitore. Di default è 1g.
Valori possibili: 1g, 4g, 16g, 64g
No
Nome Stringa Nome del contenitore da creare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ContainerResource

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recuperare un contenitore

GET {endpoint}/openai/v1/containers/{container_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
container_id Percorso Stringa ID del contenitore da recuperare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ContainerResource

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Eliminare un contenitore

DELETE {endpoint}/openai/v1/containers/{container_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
container_id Percorso Stringa ID del contenitore da eliminare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare i file del contenitore

GET {endpoint}/openai/v1/containers/{container_id}/files

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
container_id Percorso Stringa ID del contenitore da cui elencare i file.
Limite Query No Intero Un limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e
il valore predefinito è 20.
Ordine Query No Stringa
Valori possibili: asc, desc
Ordina in base al created_at timestamp degli oggetti. asc per l'ordine crescente edesc
per ordine decrescente.
Dopo Query No Stringa Un cursore per l'uso nella paginazione. after è un ID oggetto che definisce il tuo posto nella lista.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
Prima Query No Stringa Un cursore per l'uso nella paginazione. before è un ID oggetto che definisce il tuo posto nella lista.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ContainerFileListResource

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare un file contenitore

POST {endpoint}/openai/v1/containers/{container_id}/files

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
container_id Percorso Stringa ID del contenitore in cui creare un file.

Corpo della richiesta

Tipo di contenuto: multipart/form-data

Nome Digitare Descrizione Obbligatorio Predefinito
File Oggetto File (non nome file) da caricare. No
File_id Stringa Nome del file da creare. No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ContainerFileResource

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recuperare il file del contenitore

GET {endpoint}/openai/v1/containers/{container_id}/files/{file_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
container_id Percorso Stringa ID del contenitore.
File_id Percorso Stringa ID del file da recuperare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ContainerFileResource

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Eliminare il file del contenitore

DELETE {endpoint}/openai/v1/containers/{container_id}/files/{file_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
container_id Percorso Stringa ID del contenitore.
File_id Percorso Stringa L'ID del file da eliminare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recuperare il contenuto del file del contenitore

GET {endpoint}/openai/v1/containers/{container_id}/files/{file_id}/content

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
container_id Percorso Stringa ID del contenitore.
File_id Percorso Stringa ID del file da cui recuperare il contenuto.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/octet-stream Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Conversazioni

Creare una conversazione

POST {endpoint}/openai/v1/conversations

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Elementi matrice di OpenAI.InputItem o null No
Metadati OpenAI.Metadata o Null No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ConversationResource

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recuperare la conversazione

GET {endpoint}/openai/v1/conversations/{conversation_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
conversation_id Percorso Stringa ID della conversazione da recuperare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ConversationResource

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Aggiornare la conversazione

POST {endpoint}/openai/v1/conversations/{conversation_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
conversation_id Percorso Stringa ID della conversazione da aggiornare.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati OpenAI.Metadata o Null Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard.
I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ConversationResource

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elimina conversazione

DELETE {endpoint}/openai/v1/conversations/{conversation_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
conversation_id Percorso Stringa ID della conversazione da eliminare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.DeletedConversationResource

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare gli elementi della conversazione

GET {endpoint}/openai/v1/conversations/{conversation_id}/items

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
conversation_id Percorso Stringa ID della conversazione per cui elencare gli elementi.
Limite Query No Intero Un limite al numero di oggetti da restituire. Il limite può variare da 1 a 100, e il valore predefinito è 20.
Ordine Query No Stringa
Valori possibili: asc, desc
L'ordine per restituire gli elementi di input. Il valore predefinito è desc.
Dopo Query No Stringa Un ID elemento per elencare gli elementi dopo, usato nella paginazione.
Includono Query No Matrice Specificare dati di output aggiuntivi da includere nella risposta del modello.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ConversationItemList

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare elementi di conversazione

POST {endpoint}/openai/v1/conversations/{conversation_id}/items

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
conversation_id Percorso Stringa ID della conversazione a cui aggiungere l'elemento.
Includono Query No Matrice Campi aggiuntivi da includere nella risposta.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Elementi matrice di OpenAI.InputItem

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ConversationItemList

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recuperare l'elemento della conversazione

GET {endpoint}/openai/v1/conversations/{conversation_id}/items/{item_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
conversation_id Percorso Stringa ID della conversazione che contiene l'elemento.
item_id Percorso Stringa ID dell'elemento da recuperare.
Includono Query No Matrice Campi aggiuntivi da includere nella risposta.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ConversationItem

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Eliminare l'elemento della conversazione

DELETE {endpoint}/openai/v1/conversations/{conversation_id}/items/{item_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
conversation_id Percorso Stringa ID della conversazione che contiene l'elemento.
item_id Percorso Stringa ID dell'elemento da eliminare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ConversationResource

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Evals

Elenco valutazioni

GET {endpoint}/openai/v1/evals

Elenca le valutazioni di un progetto.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
Dopo Query No Stringa Identificatore per l'ultima valutazione della precedente richiesta di paginazione.
Limite Query No Intero Limite al numero di valori da restituire in una singola risposta impaginazione.
Ordine Query No Stringa
Valori possibili: asc, desc
Ordina le valutazioni per timestamp. Usare asc per l'ordine crescente o
desc per ordine decrescente.
order_by Query No Stringa
Valori possibili: created_at, updated_at
Le valutazioni possono essere ordinate per tempo di creazione o per ultimo aggiornamento. Utilizzare
created_at per l'ora di creazione o updated_at per l'ultimo aggiornamento
Tempo.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.EvalList

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare eval

POST {endpoint}/openai/v1/evals

Crea la struttura di una valutazione che possa essere utilizzata per testare le prestazioni di un modello.

Una valutazione è un insieme di criteri di test e una fonte dati. Dopo aver creato una valutazione, puoi eseguirla su diversi modelli e parametri del modello. Supportiamo diversi tipi di valutatori e fonti di dati.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
data_source_config OpenAI.CreateEvalCustomDataSourceConfig o OpenAI.CreateEvalLogsDataSourceConfig o OpenAI.CreateEvalStoredCompletionsDataSourceConfig Configurazione per l'origine dati utilizzata per le esecuzioni di valutazione. Determina lo schema dei dati usati nella valutazione.
Metadati OpenAI.Metadata o Null No
Nome Stringa Il nome della valutazione. No
Statuscode Enum
Valori possibili: 201
testing_criteria matrice di OpenAI.CreateEvalLabelModelGrader o OpenAI.EvalGraderStringCheck o OpenAI.EvalGraderTextSimilarity o OpenAI.EvalGraderPython o OpenAI.EvalGraderScoreModel o EvalGraderEndpoint Un elenco dei valutatori per tutte le esecuzioni di valutazione in questo gruppo. I classificatori possono fare riferimento a variabili nell'origine dati usando la notazione con parentesi graffe doppie, ad esempio {{item.variable_name}}. Per fare riferimento all'output del modello, usare lo sample spazio dei nomi (ad esempio, {{sample.output_text}}).

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.Eval

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Ottenere l'eval

GET {endpoint}/openai/v1/evals/{eval_id}

Recuperare una valutazione in base al relativo ID. Recupera una valutazione in base al relativo ID.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
eval_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.Eval

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Aggiornare eval

POST {endpoint}/openai/v1/evals/{eval_id}

Aggiornare le proprietà select, modificabili di una valutazione specificata.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
eval_id Percorso Stringa

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati OpenAI.Metadata Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.
I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
No
Nome Stringa No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.Eval

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elimina eval

DELETE {endpoint}/openai/v1/evals/{eval_id}

Eliminare una valutazione specificata.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
eval_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Ottenere le esecuzioni di eval

GET {endpoint}/openai/v1/evals/{eval_id}/runs

Recuperare un elenco di esecuzioni per una valutazione specificata.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
eval_id Percorso Stringa
Dopo Query No Stringa
Limite Query No Intero
Ordine Query No Stringa
Valori possibili: asc, desc
Stato Query No Stringa
Valori possibili: queued, in_progress, completed, canceled, failed

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.EvalRunList

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare l'esecuzione di eval

POST {endpoint}/openai/v1/evals/{eval_id}/runs

Creare una nuova esecuzione di valutazione, iniziando il processo di valutazione.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
eval_id Percorso Stringa

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
data_source OpenAI.CreateEvalJsonlRunDataSource o OpenAI.CreateEvalCompletionsRunDataSource o OpenAI.CreateEvalResponsesRunDataSource Dettagli sull'origine dati dell'esecuzione.
Metadati OpenAI.Metadata o Null No
Nome Stringa Il nome della corsa. No

Risposte

Codice di stato: 201

Descrizione: la richiesta ha avuto esito positivo e una nuova risorsa è stata creata di conseguenza.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.EvalRun

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Ottenere l'esecuzione di eval

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}

Recuperare un'esecuzione di valutazione specifica in base al relativo ID.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
eval_id Percorso Stringa
run_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.EvalRun

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Annullare l'esecuzione di eval

POST {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}

Annullare un'esecuzione di valutazione specifica in base al relativo ID.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
eval_id Percorso Stringa
run_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.EvalRun

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Eliminare l'esecuzione di eval

DELETE {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}

Eliminare una valutazione specifica eseguita dal relativo ID.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
eval_id Percorso Stringa
run_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Ottenere gli elementi di output dell'esecuzione di eval

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items

Ottenere un elenco di elementi di output per un'esecuzione di valutazione specificata.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
eval_id Percorso Stringa
run_id Percorso Stringa
Dopo Query No Stringa
Limite Query No Intero
Stato Query No Stringa
Valori possibili: fail, pass
Ordine Query No Stringa
Valori possibili: asc, desc

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.EvalRunOutputItemList

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Ottenere l'elemento di output dell'esecuzione di eval

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items/{output_item_id}

Recuperare un elemento di output specifico da un'esecuzione di valutazione in base al relativo ID.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
eval_id Percorso Stringa
run_id Percorso Stringa
output_item_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.EvalRunOutputItem

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

File

Creare un file

POST {endpoint}/openai/v1/files

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Tipo di contenuto: multipart/form-data

Nome Digitare Descrizione Obbligatorio Predefinito
expires_after Oggetto
Ancoraggio └* AzureFileExpiryAnchor
└> secondi Intero
File Oggetto File (non nome file) da caricare.
Scopo Enum Scopo previsto del file caricato. Uno di: - assistants: usato nell'API Assistants - batch: Usato nell'API Batch - fine-tune: usato per l'ottimizzazione- evals: usato per set di dati eval
Valori possibili: assistants, batch, fine-tune, evals

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Esempi

Esempio

POST {endpoint}/openai/v1/files

Elencare i file

GET {endpoint}/openai/v1/files

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
Scopo Query No Stringa
Limite Query No Intero
Ordine Query No Stringa
Valori possibili: asc, desc
Dopo Query No Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListFilesResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recuperare il file

GET {endpoint}/openai/v1/files/{file_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
File_id Percorso Stringa ID del file da utilizzare per questa richiesta.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elimina file

DELETE {endpoint}/openai/v1/files/{file_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
File_id Percorso Stringa ID del file da utilizzare per questa richiesta.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.DeleteFileResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Scaricare il file

GET {endpoint}/openai/v1/files/{file_id}/content

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
File_id Percorso Stringa ID del file da utilizzare per questa richiesta.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/octet-stream Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Incorporamenti

Creare l'incorporamento

POST {endpoint}/openai/v1/embeddings

Crea un vettore di incorporamento che rappresenta il testo di input.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Dimensioni Intero Il numero di dimensioni che dovrebbero avere gli embedding di output risultanti. Supportato solo nei text-embedding-3 modelli e nei modelli successivi.
Vincoli: min: 1
No
encoding_format Enum Il formato per restituire gli embedding. Può essere uno o floatl'altro base64 o .
Valori possibili: float, base64
No
Input stringa o matrice di stringhe o matrice di numeri interi o matrice di matrice Input text da incorporare, codificato come stringa o array di token. Per incorporare più input in una singola richiesta, passa un array di stringhe o array di token. L'input non deve superare i token di input massimi per il modello (8.192 token per tutti i modelli di incorporamento), non può essere una stringa vuota e qualsiasi matrice deve avere dimensioni di 2.048 o meno. Codice Python di esempio per il conteggio dei token. Oltre al limite di token per input, tutti i modelli di incorporamento applicano un massimo di 300.000 token sommati in tutti gli input in una singola richiesta.
Modello Stringa ID del modello da utilizzare. È possibile usare l'API List models (Elenco modelli ) per visualizzare tutti i modelli disponibili o vedere la panoramica del modello per le descrizioni.
Utente Stringa Altre informazioni. No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.CreateEmbeddingResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Esempi

Esempio

POST {endpoint}/openai/v1/embeddings

Messa

Eseguire grader

POST {endpoint}/openai/v1/fine_tuning/alpha/graders/run

Eseguire un grader.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Selezionatore OpenAI.GraderStringCheck o OpenAI.GraderTextSimilarity o OpenAI.GraderPython o OpenAI.GraderScoreModel o OpenAI.GraderMulti o GraderEndpoint Grader utilizzato per il processo di ottimizzazione.
Elemento OpenAI.RunGraderRequestItem No
model_sample Stringa Esempio di modello da valutare. Questo valore verrà usato per popolare
spazio sample dei nomi. Per altri dettagli, vedere la guida .
La output_json variabile verrà popolata se l'esempio di modello è un
stringa JSON valida.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.RunGraderResponse

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Convalidare il classificatore

POST {endpoint}/openai/v1/fine_tuning/alpha/graders/validate

Convalidare un classificatore.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Selezionatore OpenAI.GraderStringCheck o OpenAI.GraderTextSimilarity o OpenAI.GraderPython o OpenAI.GraderScoreModel o OpenAI.GraderMulti o GraderEndpoint No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ValidateGraderResponse

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare le autorizzazioni del checkpoint di ottimizzazione fine

GET {endpoint}/openai/v1/fine_tuning/checkpoints/{fine_tuned_model_checkpoint}/permissions

Elencare le autorizzazioni del checkpoint

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
fine_tuned_model_checkpoint Percorso Stringa ID del checkpoint del modello ottimizzato per cui ottenere le autorizzazioni.
project_id Query No Stringa ID del progetto per cui ottenere le autorizzazioni.
Dopo Query No Stringa Identificatore per l'ultimo ID autorizzazione della richiesta di paginazione precedente.
Limite Query No Intero Numero di autorizzazioni da recuperare.
Ordine Query No Stringa
Valori possibili: ascending, descending
Ordine in cui recuperare le autorizzazioni.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListFineTuningCheckpointPermissionResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare un'autorizzazione per il checkpoint di ottimizzazione fine

POST {endpoint}/openai/v1/fine_tuning/checkpoints/{fine_tuned_model_checkpoint}/permissions

Creare autorizzazioni di checkpoint

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
fine_tuned_model_checkpoint Percorso Stringa ID del checkpoint del modello ottimizzato per la creazione di un'autorizzazione.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
project_ids matrice di stringhe Identificatori del progetto a cui concedere l'accesso.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListFineTuningCheckpointPermissionResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Eliminare l'autorizzazione del checkpoint di ottimizzazione fine

DELETE {endpoint}/openai/v1/fine_tuning/checkpoints/{fine_tuned_model_checkpoint}/permissions/{permission_id}

Eliminare l'autorizzazione del checkpoint

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
fine_tuned_model_checkpoint Percorso Stringa ID del checkpoint del modello ottimizzato per l'eliminazione di un'autorizzazione.
permission_id Percorso Stringa ID dell'autorizzazione del checkpoint del modello ottimizzata da eliminare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.DeleteFineTuningCheckpointPermissionResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare un processo di ottimizzazione fine

POST {endpoint}/openai/v1/fine_tuning/jobs

Crea un processo di ottimizzazione che inizia il processo di creazione di un nuovo modello da un determinato set di dati.

La risposta include i dettagli del processo accodato, inclusi lo stato del processo e il nome dei modelli ottimizzati al termine.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
iperparametri OpenAI.CreateFineTuningJobRequestHyperparameters No
└batch_size stringa o integer No Automatico
└learning_rate_multiplier stringa o numero No
└n_epochs stringa o integer No Automatico
Integrazioni matrice di OpenAI.CreateFineTuningJobRequestIntegrations o null Elenco di integrazioni da abilitare per il processo di ottimizzazione. No
Metadati OpenAI.Metadata o Null No
Metodo OpenAI.FineTuneMethod Metodo utilizzato per l'ottimizzazione. No
Modello string (vedere modelli validi di seguito) Nome del modello da ottimizzare. È possibile selezionare una delle
modelli supportati.
Seme integer o null Il valore di inizializzazione controlla la riproducibilità del processo. Passare gli stessi parametri seed e job dovrebbe produrre gli stessi risultati, ma può differire in rari casi.
Se non viene specificato un valore di inizializzazione, ne verrà generato uno automaticamente.
No
Suffisso stringa o null Stringa di un massimo di 64 caratteri che verrà aggiunta al nome del modello ottimizzato.
Ad esempio, un suffix valore di "custom-model-name" produce un nome di modello come ft:gpt-4o-mini:openai:custom-model-name:7p4lURel.
No
training_file Stringa ID di un file caricato che contiene i dati di training.
Per informazioni su come caricare un file, vedere Caricare un file.
Il set di dati deve essere formattato come file JSONL. Inoltre, è necessario caricare il file con lo scopo fine-tune.
Il contenuto del file deve variare a seconda che il modello usi la chat, il formato dei completamenti o se il metodo di ottimizzazione usa il formato preferenza .
Per altri dettagli, vedere la guida all'ottimizzazione .
validation_file stringa o null ID di un file caricato che contiene i dati di convalida.
Se si specifica questo file, i dati vengono usati per generare la convalida
metriche periodicamente durante l'ottimizzazione. Queste metriche possono essere visualizzate in
file dei risultati di ottimizzazione.
Gli stessi dati non devono essere presenti sia nei file di training che in quello di convalida.
Il set di dati deve essere formattato come file JSONL. È necessario caricare il file con lo scopo fine-tune.
Per altri dettagli, vedere la guida all'ottimizzazione .
No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.FineTuningJob

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare i processi di ottimizzazione delle prestazioni impaginati

GET {endpoint}/openai/v1/fine_tuning/jobs

Elencare i processi di ottimizzazione dell'organizzazione

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
Dopo Query No Stringa Identificatore per l'ultimo processo della richiesta di impaginazione precedente.
Limite Query No Intero Numero di processi di ottimizzazione da recuperare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListPaginatedFineTuningJobsResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recuperare un processo di ottimizzazione fine

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}

Ottenere informazioni su un processo di ottimizzazione.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
fine_tuning_job_id Percorso Stringa ID del processo di ottimizzazione.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.FineTuningJob

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Annullare il processo di ottimizzazione

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/cancel

Annullare immediatamente un processo di ottimizzazione.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
fine_tuning_job_id Percorso Stringa ID del processo di ottimizzazione da annullare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.FineTuningJob

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare i checkpoint dei processi di ottimizzazione

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints

Elencare i checkpoint per un processo di ottimizzazione.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
fine_tuning_job_id Percorso Stringa ID del processo di ottimizzazione per cui ottenere i checkpoint.
Dopo Query No Stringa Identificatore per l'ultimo ID del checkpoint dalla precedente richiesta di paginazione.
Limite Query No Intero Numero di posti di blocco da recuperare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListFineTuningJobCheckpointsResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Ottimizzazione - Checkpoint di copia

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy

Crea una copia di un checkpoint di ottimizzazione fine nell'account e nell'area di destinazione specificati.

NOTA: questa API OpenAI di Azure è in anteprima e soggetta a modifiche.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
fine_tuning_job_id Percorso Stringa
fine_tuning_checkpoint_id Percorso Stringa

Intestazione richiesta

Nome Obbligatorio Digitare Descrizione
aoai-copy-ft-checkpoints Vero Stringa
Valori possibili: preview
Consente l'accesso alle operazioni di copia del checkpoint per i modelli, una funzionalità di anteprima di AOAI.
Questa funzionalità richiede che l'intestazione 'aoai-copy-ft-checkpoints' sia impostata su 'preview'.
Accettare Vero Stringa
Valori possibili: application/json

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
destinationResourceId Stringa ID della risorsa di destinazione da copiare.
Regione Stringa Area in cui copiare il modello.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json CopyModelResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Ottimizzazione - Ottenere un checkpoint

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy

Ottiene lo stato di una copia del checkpoint di ottimizzazione.

NOTA: questa API OpenAI di Azure è in anteprima e soggetta a modifiche.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
fine_tuning_job_id Percorso Stringa
fine_tuning_checkpoint_id Percorso Stringa

Intestazione richiesta

Nome Obbligatorio Digitare Descrizione
aoai-copy-ft-checkpoints Vero Stringa
Valori possibili: preview
Consente l'accesso alle operazioni di copia del checkpoint per i modelli, una funzionalità di anteprima di AOAI.
Questa funzionalità richiede che l'intestazione 'aoai-copy-ft-checkpoints' sia impostata su 'preview'.
Accettare Vero Stringa
Valori possibili: application/json

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json CopyModelResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare gli eventi di ottimizzazione fine

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/events

Ottenere gli aggiornamenti dello stato per un processo di ottimizzazione.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
fine_tuning_job_id Percorso Stringa ID del processo di ottimizzazione per cui ottenere gli eventi.
Dopo Query No Stringa Identificatore per l'ultimo evento della precedente richiesta di paginazione.
Limite Query No Intero Numero di eventi da recuperare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListFineTuningJobEventsResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Sospendere il processo di ottimizzazione fine

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/pause

Sospendere un processo di ottimizzazione.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
fine_tuning_job_id Percorso Stringa ID del processo di ottimizzazione da sospendere.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.FineTuningJob

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Riprendere il processo di ottimizzazione

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/resume

Riprendere un processo di ottimizzazione sospeso.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
fine_tuning_job_id Percorso Stringa ID del processo di ottimizzazione da riprendere.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.FineTuningJob

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Modelli

Elencare i modelli

GET {endpoint}/openai/v1/models

Elenca i modelli attualmente disponibili e fornisce informazioni di base su ognuna, ad esempio il proprietario e la disponibilità.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListModelsResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recuperare il modello

GET {endpoint}/openai/v1/models/{model}

Recupera un'istanza del modello, fornendo informazioni di base sul modello, ad esempio il proprietario e l'autorizzazione.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
Modello Percorso Stringa ID del modello da utilizzare per questa richiesta.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.Model

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Eliminare un modello

DELETE {endpoint}/openai/v1/models/{model}

Elimina un'istanza del modello.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
Modello Percorso Stringa ID del modello da eliminare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.DeleteModelResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Realtime

Creare una chiamata in tempo reale

POST {endpoint}/openai/v1/realtime/calls

Creare una nuova chiamata API realtime su WebRTC e ricevere la risposta SDP necessaria per completare la connessione peer.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Tipo di contenuto: multipart/form-data

Nome Digitare Descrizione Obbligatorio Predefinito
Sdp Stringa Offerta SDP (WebRTC Session Description Protocol) generata dal chiamante.
Sessione OpenAI.RealtimeSessionCreateRequestGA Configurazione in tempo reale degli oggetti di sessione. No
└* audio OpenAI.RealtimeSessionCreateRequestGAAudio Configurazione per l'input e l'output audio. No
└* include matrice di stringhe Campi aggiuntivi da includere negli output del server.
item.input_audio_transcription.logprobs: includere logprobs per la trascrizione audio di input.
No
└* istruzioni Stringa Le istruzioni di sistema predefinite (cioè il messaggio di sistema) precedevano le chiamate del modello. Questo campo permette al cliente di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta( ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono garantite dal modello, ma forniscono indicazioni sul comportamento desiderato.
Si noti che il server imposta le istruzioni predefinite che verranno utilizzate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione.
No
└max_output_tokens integer (vedere modelli validi di seguito) Numero massimo di token di output per una singola risposta di assistente,
inclusivo delle chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 a
limitare i token di output o inf per il numero massimo di token disponibili per un
modello specificato. Di default è inf.
No
Modello └* Stringa Modello in tempo reale utilizzato per questa sessione. No
└output_modalities matrice di stringhe L'insieme delle modalità a cui il modello può rispondere. L'impostazione ["audio"]predefinita è , che indica
che il modello risponderà con audio più una trascrizione. ["text"] può essere usato per fare
il modello risponde solo con testo. Non è possibile richiedere e textaudio allo stesso tempo.
No ['audio']
└* prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
└tool_choice OpenAI.ToolChoiceOptions o OpenAI.ToolChoiceFunction o OpenAI.ToolChoiceMCP Come il modello sceglie gli strumenti. Specificare una delle modalità stringa o forzare una specifica
strumento function/MCP.
No Automatico
Strumenti └* matrice di OpenAI.RealtimeFunctionTool o OpenAI.MCPTool Strumenti disponibili per il modello. No
└> traccia string o OpenAI.RealtimeSessionCreateRequestGATracing o null "" Impostare su null per disabilitare la traccia. Una volta
la traccia è abilitata per una sessione, la configurazione non può essere modificata.
auto creerà una traccia per la sessione con i valori predefiniti per
nome del flusso di lavoro, ID gruppo e metadati.
No Automatico
└\ troncamento OpenAI.RealtimeTruncation Quando il numero di token in una conversazione supera il limite di token di input del modello, la conversazione viene troncata, ovvero i messaggi (a partire dal meno recente) non verranno inclusi nel contesto del modello. Un modello di contesto di 32k con 4.096 token di output massimo può includere solo 28.224 token nel contesto prima del troncamento.
I client possono configurare il comportamento di troncamento con un limite massimo di token inferiore, un modo efficace per controllare l'utilizzo e i costi dei token.
Il troncamento ridurrà il numero di token memorizzati nella cache al turno successivo (busting the cache), poiché i messaggi vengono eliminati dall'inizio del contesto. Tuttavia, i client possono anche configurare il troncamento per conservare i messaggi fino a una frazione delle dimensioni massime del contesto, riducendo così la necessità di troncamenti futuri e migliorando così la frequenza della cache.
Il troncamento può essere disabilitato completamente, il che significa che il server non verrà mai troncato, ma restituirà invece un errore se la conversazione supera il limite di token di input del modello.
No
Tipo └* Enum Tipo di sessione da creare. Sempre realtime per l'API In tempo reale.
Valori possibili: realtime

Risposte

Codice di stato: 201

Descrizione: la richiesta ha avuto esito positivo e una nuova risorsa è stata creata di conseguenza.

Tipo di contenuto Digitare Descrizione
application/sdp Stringa

Intestazioni di risposta:

Intestazione Digitare Descrizione
Posizione Stringa URL relativo contenente l'ID chiamata per le richieste di controllo successive.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Accettare una chiamata in tempo reale

POST {endpoint}/openai/v1/realtime/calls/{call_id}/accept

Accettare una chiamata SIP in ingresso e configurare la sessione in tempo reale che la gestirà.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
call_id Percorso Stringa Identificatore della chiamata fornita nel webhook realtime.call.incoming.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Audio OpenAI.RealtimeSessionCreateRequestGAAudio No
Input └* OpenAI.RealtimeSessionCreateRequestGAAudioInput No
└* output OpenAI.RealtimeSessionCreateRequestGAAudioOutput No
Includono matrice di stringhe Campi aggiuntivi da includere negli output del server.
item.input_audio_transcription.logprobs: includere logprobs per la trascrizione audio di input.
No
Istruzioni Stringa Le istruzioni di sistema predefinite (cioè il messaggio di sistema) precedevano le chiamate del modello. Questo campo permette al cliente di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta( ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono garantite dal modello, ma forniscono indicazioni sul comportamento desiderato.
Si noti che il server imposta le istruzioni predefinite che verranno utilizzate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione.
No
max_output_tokens integer (vedere modelli validi di seguito) Numero massimo di token di output per una singola risposta di assistente,
inclusivo delle chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 a
limitare i token di output o inf per il numero massimo di token disponibili per un
modello specificato. Di default è inf.
No
Modello Stringa Modello in tempo reale utilizzato per questa sessione. No
output_modalities matrice di stringhe L'insieme delle modalità a cui il modello può rispondere. L'impostazione ["audio"]predefinita è , che indica
che il modello risponderà con audio più una trascrizione. ["text"] può essere usato per fare
il modello risponde solo con testo. Non è possibile richiedere e textaudio allo stesso tempo.
No ['audio']
prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
tool_choice OpenAI.ToolChoiceOptions o OpenAI.ToolChoiceFunction o OpenAI.ToolChoiceMCP Come il modello sceglie gli strumenti. Specificare una delle modalità stringa o forzare una specifica
strumento function/MCP.
No
Strumenti matrice di OpenAI.RealtimeFunctionTool o OpenAI.MCPTool Strumenti disponibili per il modello. No
Traccia string o OpenAI.RealtimeSessionCreateRequestGATracing o null "" Impostare su null per disabilitare la traccia. Una volta
la traccia è abilitata per una sessione, la configurazione non può essere modificata.
auto creerà una traccia per la sessione con i valori predefiniti per
nome del flusso di lavoro, ID gruppo e metadati.
No
Troncamento OpenAI.RealtimeTruncation Quando il numero di token in una conversazione supera il limite di token di input del modello, la conversazione viene troncata, ovvero i messaggi (a partire dal meno recente) non verranno inclusi nel contesto del modello. Un modello di contesto di 32k con 4.096 token di output massimo può includere solo 28.224 token nel contesto prima del troncamento.
I client possono configurare il comportamento di troncamento con un limite massimo di token inferiore, un modo efficace per controllare l'utilizzo e i costi dei token.
Il troncamento ridurrà il numero di token memorizzati nella cache al turno successivo (busting the cache), poiché i messaggi vengono eliminati dall'inizio del contesto. Tuttavia, i client possono anche configurare il troncamento per conservare i messaggi fino a una frazione delle dimensioni massime del contesto, riducendo così la necessità di troncamenti futuri e migliorando così la frequenza della cache.
Il troncamento può essere disabilitato completamente, il che significa che il server non verrà mai troncato, ma restituirà invece un errore se la conversazione supera il limite di token di input del modello.
No
digitare Enum Tipo di sessione da creare. Sempre realtime per l'API In tempo reale.
Valori possibili: realtime

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Hang up realtime call (Hang up realtime call)

POST {endpoint}/openai/v1/realtime/calls/{call_id}/hangup

Terminare una chiamata API realtime attiva, indipendentemente dal fatto che sia stata avviata tramite SIP o WebRTC.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
call_id Percorso Stringa Identificatore della chiamata.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Fare riferimento alla chiamata in tempo reale

POST {endpoint}/openai/v1/realtime/calls/{call_id}/refer

Trasferire una chiamata SIP attiva a una nuova destinazione usando il verbo SIP REFER.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
call_id Percorso Stringa Identificatore della chiamata fornita nel webhook realtime.call.incoming.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
target_uri Stringa URI che dovrebbe essere visualizzato nell'intestazione sip Refer-To. Supporta valori come
tel:+14155550123 o sip:agent\@example.com.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Rifiuta chiamata in tempo reale

POST {endpoint}/openai/v1/realtime/calls/{call_id}/reject

Rifiutare una chiamata SIP in ingresso restituendo un codice di stato SIP al chiamante.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
call_id Percorso Stringa Identificatore della chiamata fornita nel webhook realtime.call.incoming.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
status_code Intero Codice di risposta SIP da inviare al chiamante. Il valore predefinito è 603 (rifiuta)
quando viene omesso.
No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare un segreto client in tempo reale

POST {endpoint}/openai/v1/realtime/client_secrets

Creare un segreto client in tempo reale con una configurazione di sessione associata.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
expires_after OpenAI.RealtimeCreateClientSecretRequestExpiresAfter No
Ancoraggio └* Enum
Valori possibili: created_at
No
└> secondi Intero Vincoli: min: 10, max: 7200 No 600
Sessione OpenAI.RealtimeSessionCreateRequestUnion No
Tipo └* OpenAI.RealtimeSessionCreateRequestUnionType

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.RealtimeCreateClientSecretResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare una sessione in tempo reale

POST {endpoint}/openai/v1/realtime/sessions

Crea un token API effimero da utilizzare nelle applicazioni lato client con l'API Realtime.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
client_secret OpenAI.RealtimeSessionCreateRequestClientSecret
└expires_at Intero
└* valore Stringa
input_audio_format Stringa Il formato dell'audio in ingresso. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw. No
input_audio_transcription OpenAI.RealtimeSessionCreateRequestInputAudioTranscription No
Modello └* Stringa No
Istruzioni Stringa Le istruzioni di sistema predefinite (cioè il messaggio di sistema) precedevano le chiamate del modello. Questo campo permette al cliente di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta( ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono garantite dal modello, ma forniscono indicazioni sul comportamento desiderato.
Si noti che il server imposta le istruzioni predefinite che verranno utilizzate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione.
No
max_response_output_tokens integer (vedere modelli validi di seguito) Numero massimo di token di output per una singola risposta di assistente,
inclusivo delle chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 a
limitare i token di output o inf per il numero massimo di token disponibili per un
modello specificato. Di default è inf.
No
Modalità matrice di stringhe L'insieme delle modalità a cui il modello può rispondere. Per disabilitare l'audio,
impostare su ["text"].
No ['text', 'audio']
output_audio_format Stringa Il formato dell'audio in uscita. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw. No
prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
Velocità Numero Velocità della risposta pronunciata del modello. 1.0 è la velocità predefinita. 0.25 è
la velocità minima. 1,5 è la velocità massima. Questo valore può essere modificato solo
tra i turni del modello, non mentre è in corso una risposta.
Vincoli: min: 0,25, max: 1,5
No 1
Temperatura Numero La temperatura di campionamento per il modello è limitata a [0,6, 1,2]. Di default è 0.8. No
tool_choice Stringa Come il modello sceglie gli strumenti. Le opzioni sono auto, none, requiredo
specificare una funzione.
No
Strumenti matrice di OpenAI.RealtimeSessionCreateRequestTools Strumenti (funzioni) disponibili per il modello. No
Traccia stringa o oggetto Opzioni di configurazione per la traccia. Impostare su Null per disabilitare la traccia. Una volta
la traccia è abilitata per una sessione, la configurazione non può essere modificata.
auto creerà una traccia per la sessione con i valori predefiniti per
nome del flusso di lavoro, ID gruppo e metadati.
No
Troncamento OpenAI.RealtimeTruncation Quando il numero di token in una conversazione supera il limite di token di input del modello, la conversazione viene troncata, ovvero i messaggi (a partire dal meno recente) non verranno inclusi nel contesto del modello. Un modello di contesto di 32k con 4.096 token di output massimo può includere solo 28.224 token nel contesto prima del troncamento.
I client possono configurare il comportamento di troncamento con un limite massimo di token inferiore, un modo efficace per controllare l'utilizzo e i costi dei token.
Il troncamento ridurrà il numero di token memorizzati nella cache al turno successivo (busting the cache), poiché i messaggi vengono eliminati dall'inizio del contesto. Tuttavia, i client possono anche configurare il troncamento per conservare i messaggi fino a una frazione delle dimensioni massime del contesto, riducendo così la necessità di troncamenti futuri e migliorando così la frequenza della cache.
Il troncamento può essere disabilitato completamente, il che significa che il server non verrà mai troncato, ma restituirà invece un errore se la conversazione supera il limite di token di input del modello.
No
turn_detection OpenAI.RealtimeSessionCreateRequestTurnDetection No
└prefix_padding_ms Intero No
└silence_duration_ms Intero No
└* soglia Numero No
Tipo └* Stringa No
digitare Enum
Valori possibili: realtime
Voce OpenAI.VoiceIdsShared No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.RealtimeSessionCreateResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare una sessione di trascrizione in tempo reale

POST {endpoint}/openai/v1/realtime/transcription_sessions

Crea un token API effimero da utilizzare in applicazioni lato client con l'API Realtime specificamente per trascrizioni in tempo reale.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Includono matrice di stringhe Il set di elementi da includere nella trascrizione. Gli articoli attualmente disponibili sono:
item.input_audio_transcription.logprobs
No
input_audio_format Enum Il formato dell'audio in ingresso. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw.
Per pcm16, l'audio di input deve essere PCM a 16 bit a una frequenza di campionamento di 24 kHz,
singolo canale (mono) e ordine dei byte little-endian.
Valori possibili: pcm16, g711_ulaw, g711_alaw
No
input_audio_noise_reduction OpenAI.RealtimeTranscriptionSessionCreateRequestInputAudioNoiseReduction No
Tipo └* OpenAI.NoiseReductionType Tipo di riduzione del rumore. near_field è per microfoni ravvicinati come le cuffie, è far_field per microfoni a campo lontano come laptop o microfoni di sala conferenze. No
input_audio_transcription OpenAI.AudioTranscription No
└* lingua Stringa Il linguaggio dell'audio in ingresso. Specifica della lingua di input in
Formato ISO-639-1 (ad esempio en)
migliorerà l'accuratezza e la latenza.
No
Modello └* Stringa Il modello da usare per la trascrizione. Le opzioni correnti sono whisper-1, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15gpt-4o-transcribe, e gpt-4o-transcribe-diarize. Usare gpt-4o-transcribe-diarize quando è necessaria la diarizzazione con le etichette dell'altoparlante. No
└* prompt Stringa Testo facoltativo per guidare lo stile del modello o continuare un audio precedente
Segmento.
Per whisper-1, il prompt è un elenco di parole chiave.
Per gpt-4o-transcribe i modelli (escluso gpt-4o-transcribe-diarize), il prompt è una stringa di testo libero, ad esempio "aspetta parole correlate alla tecnologia".
No
turn_detection OpenAI.RealtimeTranscriptionSessionCreateRequestTurnDetection No
└prefix_padding_ms Intero No
└silence_duration_ms Intero No
└* soglia Numero No
Tipo └* Enum
Valori possibili: server_vad
No
digitare Enum
Valori possibili: transcription

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.RealtimeTranscriptionSessionCreateResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Risposte

Creare una risposta

POST {endpoint}/openai/v1/responses

Crea una risposta modello.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Priorità bassa booleano o null No
Conversazione OpenAI.ConversationParam o null No
Includono matrice di OpenAI.IncludeEnum o null No
Input OpenAI.InputParam Input di testo, immagine o file al modello, utilizzati per generare una risposta.
Ulteriori informazioni:
- Input di testo e output
- Input dell'immagine
- Input di file
- Stato conversazione
- Chiamata di funzione
No
Istruzioni stringa o null No
max_output_tokens integer o null No
max_tool_calls integer o null No
Metadati OpenAI.Metadata o Null No
Modello Stringa ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAI
offre un'ampia gamma di modelli con diverse funzionalità, prestazioni
caratteristiche e punti di prezzo. Fare riferimento alla guida al modello
per esplorare e confrontare i modelli disponibili.
No
parallel_tool_calls booleano o null No
previous_response_id stringa o null No
prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
prompt_cache_key Stringa Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo. Altre informazioni. No
prompt_cache_retention stringa o null No
Ragionamento OpenAI.Reasoning o null No
safety_identifier Stringa Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI.
Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni.
No
Negozio booleano o null No
Flusso booleano o null No
stream_options OpenAI.ResponseStreamOptions o null No
Temperatura number o null No
Testo OpenAI.ResponseTextParam Opzioni di configurazione per una risposta testuale dal modello. Può essere semplice
dati JSON strutturati o di testo. Ulteriori informazioni:
- Input di testo e output
- Output strutturati
No
tool_choice OpenAI.ToolChoiceParam Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione
una risposta. Vedere il tools parametro per vedere come specificare gli strumenti
il modello può chiamare.
No
Strumenti OpenAI.ToolsArray Una serie di strumenti che il modello può chiamare mentre genera una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .
Sono supportate le categorie di strumenti seguenti:
- Strumenti integrati: Strumenti forniti da OpenAI che estendono la
funzionalità del modello, ad esempio la ricerca Web
o ricerca di file. Altre informazioni
strumenti predefiniti.
- Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati
o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni
Strumenti MCP.
- Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente,
abilitazione del modello per chiamare il proprio codice con argomenti fortemente tipizzato
e output. Altre informazioni
chiamata di funzione. È anche possibile usare
strumenti personalizzati per chiamare il proprio codice.
No
top_logprobs integer o null No
top_p number o null No
Troncamento stringa o null No
Utente stringa (deprecata) Questo campo viene sostituito da safety_identifier e prompt_cache_key. Usare prompt_cache_key invece per mantenere le ottimizzazioni della memorizzazione nella cache.
Identificatore stabile per gli utenti finali.
Usato per aumentare la frequenza di riscontri nella cache migliorando il bucket di richieste simili e per consentire a OpenAI di rilevare e prevenire abusi. Altre informazioni.
No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json Oggetto
text/event-stream Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Esempi

Esempio

POST {endpoint}/openai/v1/responses

Ottenere la risposta

GET {endpoint}/openai/v1/responses/{response_id}

Recupera una risposta del modello con l'ID fornito.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
response_id Percorso Stringa
include[] Query No Matrice Campi aggiuntivi da includere nella risposta. Per altre informazioni, vedere il parametro di inclusione per la creazione della risposta precedente.
Flusso Query No Boolean Se impostato su true, i dati di risposta del modello verranno trasmessi al client durante la generazione tramite eventi inviati dal server.
starting_after Query No Intero Numero di sequenza dell'evento dopo il quale avviare lo streaming.
include_obfuscation Query No Boolean Se true, l'offuscamento del flusso verrà abilitato. L'offuscamento del flusso aggiunge caratteri casuali a un obfuscation campo sugli eventi delta di streaming per normalizzare le dimensioni del payload come mitigazione di determinati attacchi sul canale laterale. Questi campi offuscamento sono inclusi per impostazione predefinita, ma aggiungono una piccola quantità di overhead al flusso di dati. È possibile impostare su include_obfuscation false per ottimizzare la larghezza di banda se si considera attendibile i collegamenti di rete tra l'applicazione e l'API OpenAI.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Eliminare la risposta

DELETE {endpoint}/openai/v1/responses/{response_id}

Elimina una risposta in base all'ID.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
response_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Annulla risposta

POST {endpoint}/openai/v1/responses/{response_id}/cancel

Annulla una risposta del modello con l'ID specificato. È possibile annullare solo le risposte create con il parametro in background impostato su true.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
response_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare gli elementi di input

GET {endpoint}/openai/v1/responses/{response_id}/input_items

Restituisce un elenco di elementi di input per una data risposta.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
response_id Percorso Stringa
Limite Query No Intero Un limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e
il valore predefinito è 20.
Ordine Query No Stringa
Valori possibili: asc, desc
Ordina in base al created_at timestamp degli oggetti. asc per l'ordine crescente edesc
per ordine decrescente.
Dopo Query No Stringa Un cursore per l'uso nella paginazione. after è un ID oggetto che definisce il tuo posto nella lista.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
Prima Query No Stringa Un cursore per l'uso nella paginazione. before è un ID oggetto che definisce il tuo posto nella lista.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ResponseItemList

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Discussioni

Creare un thread

POST {endpoint}/openai/v1/threads

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Messaggi matrice di OpenAI.CreateMessageRequest Elenco di messaggi con cui avviare il thread. No
Metadati OpenAI.Metadata o Null No
tool_resources OpenAI.CreateThreadRequestToolResources o null No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ThreadObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare ed eseguire

POST {endpoint}/openai/v1/threads/runs

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
assistant_id Stringa ID dell'assistente da usare per eseguire questa esecuzione.
Istruzioni stringa o null Sovrascrivi il messaggio di sistema predefinito dell'assistente. Questo è utile per modificare il comportamento su base per run. No
max_completion_tokens integer o null Il numero massimo di gettoni di completamento che possono essere utilizzati durante la run. L'esecuzione farà del meglio per usare solo il numero di token di completamento specificati, in più turni dell'esecuzione. Se la corsa supera il numero di token di completamento specificato, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni. No
max_prompt_tokens integer o null Il numero massimo di token prompt che possono essere utilizzati durante la run. L'esecuzione farà del meglio per usare solo il numero di token di richiesta specificati, in più turni dell'esecuzione. Se la corsa supera il numero di token prompt specificati, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni. No
Metadati OpenAI.Metadata o Null No
Modello Stringa ID del modello da utilizzare per eseguire questa esecuzione. Se qui viene fornito un valore, esso sovrascriverà il modello associato all'assistente. In caso contrario, verrà utilizzato il modello associato all'assistente. No
parallel_tool_calls OpenAI.ParallelToolCalls Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. No
response_format OpenAI.AssistantsApiResponseFormatOption Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.
L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere
Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.
Importante:* quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto.
No
Flusso booleano o null Se true, restituisce un flusso di eventi che avvengono durante la Run come eventi inviati dal server, terminando quando la Run entra in uno stato terminale con un data: [DONE] messaggio. No
Temperatura number o null Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. No
Thread OpenAI.CreateThreadRequest Opzioni per creare un nuovo thread. Se non viene fornito alcun thread durante l'esecuzione di un
request, verrà creato un thread vuoto.
No
tool_choice OpenAI.AssistantsApiToolChoiceOption Controlla quale (se presente) strumento viene chiamato dal modello.
none significa che il modello non richiamerà nessuno strumento ma invece genera un messaggio.
auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.
required indica che il modello deve chiamare uno o più strumenti prima di rispondere all'utente.
Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo.
No
tool_resources OpenAI.CreateThreadAndRunRequestToolResources o null Un insieme di risorse utilizzate dagli strumenti dell'assistente. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale. No
Strumenti matrice di OpenAI.AssistantTool Sovrascrivi gli strumenti che l'assistente può usare per questa corsa. Questo è utile per modificare il comportamento su base per run. No
top_p number o null Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.
In genere consigliamo di modificare questo o la temperatura, ma non entrambi.
No
truncation_strategy OpenAI.TruncationObject Controlli su come un thread verrà troncato prima dell'esecuzione. Usa questo per controllare la finestra contestuale iniziale della run. No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.RunObject

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elimina thread

DELETE {endpoint}/openai/v1/threads/{thread_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.DeleteThreadResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recuperare il thread

GET {endpoint}/openai/v1/threads/{thread_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ThreadObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Modificare il thread

POST {endpoint}/openai/v1/threads/{thread_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati OpenAI.Metadata o Null No
tool_resources OpenAI.ModifyThreadRequestToolResources o null No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ThreadObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare i messaggi

GET {endpoint}/openai/v1/threads/{thread_id}/messages

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa
Limite Query No Intero
Ordine Query No Stringa
Valori possibili: asc, desc
Dopo Query No Stringa
Prima Query No Stringa
run_id Query No Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListMessagesResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare un messaggio

POST {endpoint}/openai/v1/threads/{thread_id}/messages

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Allegati matrice di OpenAI.CreateMessageRequestAttachments o null No
Contenuto stringa o matrice di OpenAI.MessageContentImageFileObject o OpenAI.MessageContentImageUrlObject o OpenAI.MessageRequestContentTextObject
Metadati OpenAI.Metadata o Null No
Ruolo Enum Il ruolo dell'entità che crea il messaggio. I valori consentiti includono:
- user: Indica che il messaggio è stato inviato da un utente reale e dovrebbe essere usato nella maggior parte dei casi per rappresentare messaggi generati dall'utente.
- assistant: Indica che il messaggio è stato generato dall'assistente. Usa questo valore per inserire messaggi dall'assistente nella conversazione.
Valori possibili: user, assistant

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.MessageObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elimina messaggio

DELETE {endpoint}/openai/v1/threads/{thread_id}/messages/{message_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa
message_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.DeleteMessageResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recuperare il messaggio

GET {endpoint}/openai/v1/threads/{thread_id}/messages/{message_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa
message_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.MessageObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Modificare il messaggio

POST {endpoint}/openai/v1/threads/{thread_id}/messages/{message_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa
message_id Percorso Stringa

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati OpenAI.Metadata o Null No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.MessageObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare l'esecuzione

POST {endpoint}/openai/v1/threads/{thread_id}/runs

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
additional_instructions stringa o null Aggiunge istruzioni aggiuntive alla fine delle istruzioni per la corsa. Questo è utile per modificare il comportamento su base per run senza sovrascrivere altre istruzioni. No
additional_messages matrice di OpenAI.CreateMessageRequest o null Aggiunge messaggi aggiuntivi al thread prima di creare la run. No
assistant_id Stringa ID dell'assistente da usare per eseguire questa esecuzione.
Istruzioni stringa o null Esegue l'override delle istruzioni dell'assistente. Questo è utile per modificare il comportamento su base per run. No
max_completion_tokens integer o null Il numero massimo di gettoni di completamento che possono essere utilizzati durante la run. L'esecuzione farà del meglio per usare solo il numero di token di completamento specificati, in più turni dell'esecuzione. Se la corsa supera il numero di token di completamento specificato, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni. No
max_prompt_tokens integer o null Il numero massimo di token prompt che possono essere utilizzati durante la run. L'esecuzione farà del meglio per usare solo il numero di token di richiesta specificati, in più turni dell'esecuzione. Se la corsa supera il numero di token prompt specificati, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni. No
Metadati OpenAI.Metadata o Null No
Modello Stringa ID del modello da utilizzare per eseguire questa esecuzione. Se qui viene fornito un valore, esso sovrascriverà il modello associato all'assistente. In caso contrario, verrà utilizzato il modello associato all'assistente. No
parallel_tool_calls OpenAI.ParallelToolCalls Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. No
reasoning_effort OpenAI.ReasoningEffort Vincola lo sforzo sul ragionamento per
ragionamento dei modelli.
I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
- gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.
- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.
- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.
- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max.
No
response_format OpenAI.AssistantsApiResponseFormatOption Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.
L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere
Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.
Importante:* quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto.
No
Flusso booleano o null Se true, restituisce un flusso di eventi che avvengono durante la Run come eventi inviati dal server, terminando quando la Run entra in uno stato terminale con un data: [DONE] messaggio. No
Temperatura number o null Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. No
tool_choice OpenAI.AssistantsApiToolChoiceOption Controlla quale (se presente) strumento viene chiamato dal modello.
none significa che il modello non richiamerà nessuno strumento ma invece genera un messaggio.
auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.
required indica che il modello deve chiamare uno o più strumenti prima di rispondere all'utente.
Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo.
No
Strumenti matrice di OpenAI.AssistantTool Sovrascrivi gli strumenti che l'assistente può usare per questa corsa. Questo è utile per modificare il comportamento su base per run. No
top_p number o null Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.
In genere consigliamo di modificare questo o la temperatura, ma non entrambi.
No
truncation_strategy OpenAI.TruncationObject Controlli su come un thread verrà troncato prima dell'esecuzione. Usa questo per controllare la finestra contestuale iniziale della run. No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.RunObject

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare le esecuzioni

GET {endpoint}/openai/v1/threads/{thread_id}/runs

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa
Limite Query No Intero
Ordine Query No Stringa
Valori possibili: asc, desc
Dopo Query No Stringa
Prima Query No Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListRunsResponse

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recuperare l'esecuzione

GET {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa
run_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.RunObject

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Modificare l'esecuzione

POST {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa
run_id Percorso Stringa

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati OpenAI.Metadata o Null No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.RunObject

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Annulla esecuzione

POST {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/cancel

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa
run_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.RunObject

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare i passaggi di esecuzione

GET {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/steps

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa
run_id Percorso Stringa
Limite Query No Intero
Ordine Query No Stringa
Valori possibili: asc, desc
Dopo Query No Stringa
Prima Query No Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListRunStepsResponse

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Ottenere il passaggio di esecuzione

GET {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/steps/{step_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa
run_id Percorso Stringa
step_id Percorso Stringa

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.RunStepObject

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Inviare output dello strumento per l'esecuzione

POST {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/submit_tool_outputs

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
thread_id Percorso Stringa
run_id Percorso Stringa

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Flusso booleano o null No
tool_outputs matrice di OpenAI.SubmitToolOutputsRunRequestToolOutputs Un elenco degli strumenti per cui vengono inviati i risultati.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.RunObject

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Archivi vettoriali

Elencare gli archivi vettoriali

GET {endpoint}/openai/v1/vector_stores

Restituisce un elenco di store vettoriali.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
Limite Query No Intero Un limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e
il valore predefinito è 20.
Ordine Query No Stringa
Valori possibili: asc, desc
Ordina in base al created_at timestamp degli oggetti. asc per l'ordine crescente edesc
per ordine decrescente.
Dopo Query No Stringa Un cursore per l'uso nella paginazione. after è un ID oggetto che definisce il tuo posto nella lista.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
Prima Query No Stringa Un cursore per l'uso nella paginazione. before è un ID oggetto che definisce il tuo posto nella lista.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListVectorStoresResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare un archivio vettoriale

POST {endpoint}/openai/v1/vector_stores

Crea un vettoriale store.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
chunking_strategy OpenAI.ChunkingStrategyRequestParam La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . Applicabile solo se file_ids non è vuoto. No
Descrizione Stringa Descrizione dell'archivio vettoriale. Può essere usato per descrivere lo scopo dell'archivio vettoriale. No
expires_after OpenAI.VectorStoreExpirationAfter La politica di scadenza per uno store vettoriale. No
file_ids matrice di stringhe Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search questo che può accedere ai file. No
Metadati OpenAI.Metadata o Null No
Nome Stringa Il nome del negozio vettoriale. No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.VectorStoreObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Esempi

Esempio

POST {endpoint}/openai/v1/vector_stores

Ottenere l'archivio vettoriale

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}

Recupera un vettoriale store.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa L'ID dello store vettoriale da recuperare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.VectorStoreObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Modificare l'archivio vettoriale

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}

Modifica un vettoriale store.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa L'ID del vettore memorizza da modificare.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
expires_after OpenAI.VectorStoreExpirationAfter La politica di scadenza per uno store vettoriale. No
Metadati OpenAI.Metadata o Null No
Nome stringa o null Il nome del negozio vettoriale. No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.VectorStoreObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Eliminare l'archivio vettoriale

DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}

Elimina uno store vettoriale.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa L'ID dello store vettoriale da eliminare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.DeleteVectorStoreResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare un batch di file dell'archivio vettoriale

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches

Crea un batch di file vettoriali.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa ID dell'archivio vettoriale per il quale creare un batch di file.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Attributi OpenAI.VectorStoreFileAttributes o null No
chunking_strategy OpenAI.ChunkingStrategyRequestParam La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . Applicabile solo se file_ids non è vuoto. No
file_ids matrice di stringhe Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search questo che può accedere ai file. Se attributes o chunking_strategy vengono forniti, verranno applicati a tutti i file nel batch. Si escludono a vicenda con files. No
File matrice di OpenAI.CreateVectorStoreFileRequest Elenco di oggetti che includono un file_id segno più facoltativo attributes o chunking_strategy. Usare questa opzione quando è necessario eseguire l'override dei metadati per file specifici. Il valore globale attributes o chunking_strategy verrà ignorato e deve essere specificato per ogni file. Si escludono a vicenda con file_ids. No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.VectorStoreFileBatchObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Ottenere un batch di file dell'archivio vettoriale

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}

Recupera un file vettoriale store batch.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa L'ID dello store vettoriale a cui appartiene il file batch.
batch_id Percorso Stringa L'ID del file batch che viene recuperato.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.VectorStoreFileBatchObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Annullare il batch di file dell'archivio vettoriale

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel

Annulla un lotto di file vettoriale. Questo tenta di annullare l'elaborazione dei file in questo lotto il prima possibile.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa L'ID dello store vettoriale a cui appartiene il file batch.
batch_id Percorso Stringa L'ID del file batch da annullare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.VectorStoreFileBatchObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare i file nel batch dell'archivio vettoriale

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/files

Restituisce un elenco di file di vettorio store in un batch.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa L'ID dello store vettoriale a cui appartiene il file batch.
batch_id Percorso Stringa L'ID del lotto di file a cui appartengono i file.
Limite Query No Intero Un limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e
il valore predefinito è 20.
Ordine Query No Stringa
Valori possibili: asc, desc
Ordina in base al created_at timestamp degli oggetti. asc per l'ordine crescente edesc
per ordine decrescente.
Dopo Query No Stringa Un cursore per l'uso nella paginazione. after è un ID oggetto che definisce il tuo posto nella lista.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
Prima Query No Stringa Un cursore per l'uso nella paginazione. before è un ID oggetto che definisce il tuo posto nella lista.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.
Filtro Query No Stringa
Valori possibili: in_progress, completed, failed, cancelled
Filtra per stato del file. Uno di in_progress, completed, failed, cancelled.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListVectorStoreFilesResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Elencare i file dell'archivio vettoriale

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files

Restituisce un elenco di file di vettorio store.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa L'ID della memoria vettoriale a cui appartengono i file.
Limite Query No Intero Un limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e
il valore predefinito è 20.
Ordine Query No Stringa
Valori possibili: asc, desc
Ordina in base al created_at timestamp degli oggetti. asc per l'ordine crescente edesc
per ordine decrescente.
Dopo Query No Stringa Un cursore per l'uso nella paginazione. after è un ID oggetto che definisce il tuo posto nella lista.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco.
Prima Query No Stringa Un cursore per l'uso nella paginazione. before è un ID oggetto che definisce il tuo posto nella lista.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il
la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.
Filtro Query No Stringa
Valori possibili: in_progress, completed, failed, cancelled
Filtra per stato del file. Uno di in_progress, completed, failed, cancelled.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.ListVectorStoreFilesResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Creare un file dell'archivio vettoriale

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files

Crea un file di vettorio di archiviazione allegando un file a un vettoriale store.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa L'ID del vettore store per cui creare un File.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Attributi OpenAI.VectorStoreFileAttributes o null No
chunking_strategy OpenAI.ChunkingStrategyRequestParam La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . Applicabile solo se file_ids non è vuoto. No
File_id Stringa ID file che deve essere usato dall'archivio vettoriale. Utile per strumenti come file_search questo che può accedere ai file.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.VectorStoreFileObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Ottenere il file dell'archivio vettoriale

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}

Recupera un file di archivio vettoriale.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa L'ID dello store vettoriale a cui appartiene il file.
File_id Percorso Stringa L'ID del file che viene recuperato.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.VectorStoreFileObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Aggiornare gli attributi del file dell'archivio vettoriale

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa
File_id Percorso Stringa

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Attributi OpenAI.VectorStoreFileAttributes o null

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.VectorStoreFileObject

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Eliminare il file dell'archivio vettoriale

DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}

Elimina un file di vettorio store. Il file verrà rimosso dall'archivio vettoriale, ma il file stesso non verrà eliminato. Per eliminare il file, usare l'endpoint dell'endpoint del file di eliminazione.

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa L'ID dello store vettoriale a cui appartiene il file.
File_id Percorso Stringa L'ID del file da eliminare.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.DeleteVectorStoreFileResponse

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Recupero contenuto del file vettoriale di memorizzazione

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}/content

Recupero contenuto del file vettoriale di memorizzazione

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa L'ID dello store vettoriale da cercare.
File_id Percorso Stringa ID del file per il quale recuperare il contenuto.

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.VectorStoreSearchResultsPage

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Memoria vettoriale di ricerca

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/search

Memoria vettoriale di ricerca

Parametri URI

Nome Pollici Obbligatorio Digitare Descrizione
Endpoint Percorso Stringa Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com
api-version Query No Stringa Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
vector_store_id Percorso Stringa L'ID dello store vettoriale da cercare.

Corpo della richiesta

Content-Type: application/json

Nome Digitare Descrizione Obbligatorio Predefinito
Filtri OpenAI.ComparisonFilter o OpenAI.CompoundFilter Un filtro da applicare in base agli attributi del file. No
max_num_results Intero Il numero massimo di risultati da restituire. Questo numero dovrebbe essere compreso tra 1 e 50 inclusi.
Vincoli: min: 1, max: 50
No 10
Query stringa o matrice di stringhe Una stringa di query per una ricerca
ranking_options OpenAI.VectorStoreSearchRequestRankingOptions No
└* ranker Enum
Valori possibili: none, auto, default-2024-11-15
No
└score_threshold Numero Vincoli: min: 0, max: 1 No
rewrite_query Boolean Se riscrivere la query in linguaggio naturale per la ricerca vettoriale. No

Risposte

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Digitare Descrizione
application/json OpenAI.VectorStoreSearchResultsPage

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Codice di stato: predefinito

Descrizione: risposta di errore imprevista.

Tipo di contenuto Digitare Descrizione
application/json Oggetto

Intestazioni di risposta:

Intestazione Digitare Descrizione
apim-request-id Stringa ID richiesta usato per la risoluzione dei problemi.

Componenti

AudioSegment

Nome Digitare Descrizione Obbligatorio Predefinito
avg_logprob Numero Probabilità di log media associata a questo segmento audio.
compression_ratio Numero Rapporto di compressione di questo segmento audio.
Fine Numero Ora in cui questo segmento è terminato rispetto all'inizio dell'audio tradotto.
Id Intero Indice in base 0 di questo segmento all'interno di una traduzione.
no_speech_prob Numero Probabilità di nessun rilevamento vocale all'interno di questo segmento audio.
Cercare Intero Posizione di ricerca associata all'elaborazione di questo segmento audio.
Le posizioni di ricerca vengono espresse come centesimi di secondi.
Il modello può elaborare diversi segmenti da una singola posizione di ricerca, quindi mentre la posizione di ricerca non rappresenterà mai
una volta successiva all'inizio del segmento, l'inizio del segmento può rappresentare un tempo significativamente successivo rispetto a
posizione di ricerca associata del segmento.
Iniziare Numero Ora in cui questo segmento è iniziato rispetto all'inizio dell'audio tradotto.
Temperatura Numero Punteggio di temperatura associato a questo segmento audio.
Testo Stringa Testo tradotto che faceva parte di questo segmento audio.
Token matrice di numeri interi ID token corrispondenti al testo tradotto in questo segmento audio.

AudioTaskLabel

Definisce i descrittori possibili per le risposte alle operazioni audio disponibili.

Proprietà Valore
Descrizione Definisce i descrittori possibili per le risposte alle operazioni audio disponibili.
Digitare Stringa
Valori transcribe
translate

AudioTranslationSegment

Informazioni estese su un singolo segmento di dati audio tradotti. I segmenti rappresentano in genere circa 5-10 secondi di parlato. I limiti dei segmenti si verificano in genere tra parole, ma non necessariamente frasi.

Nome Digitare Descrizione Obbligatorio Predefinito
avg_logprob Numero Probabilità di log media associata a questo segmento audio.
compression_ratio Numero Rapporto di compressione di questo segmento audio.
Fine Numero Ora in cui questo segmento è terminato rispetto all'inizio dell'audio tradotto.
Id Intero Indice in base 0 di questo segmento all'interno di una traduzione.
no_speech_prob Numero Probabilità di nessun rilevamento vocale all'interno di questo segmento audio.
Cercare Intero Posizione di ricerca associata all'elaborazione di questo segmento audio.
Le posizioni di ricerca vengono espresse come centesimi di secondi.
Il modello può elaborare diversi segmenti da una singola posizione di ricerca, quindi mentre la posizione di ricerca non rappresenterà mai
una volta successiva all'inizio del segmento, l'inizio del segmento può rappresentare un tempo significativamente successivo rispetto a
posizione di ricerca associata del segmento.
Iniziare Numero Ora in cui questo segmento è iniziato rispetto all'inizio dell'audio tradotto.
Temperatura Numero Punteggio di temperatura associato a questo segmento audio.
Testo Stringa Testo tradotto che faceva parte di questo segmento audio.
Token matrice di numeri interi ID token corrispondenti al testo tradotto in questo segmento audio.

AzureAIFoundryModelsApiVersion

Proprietà Valore
Digitare Stringa
Valori v1
preview

AzureAudioTranscriptionResponse

Informazioni sui risultati per un'operazione che trascrive l'audio parlato in testo scritto.

Nome Digitare Descrizione Obbligatorio Predefinito
Durata Numero Durata totale dell'audio elaborato per produrre informazioni di trascrizione a corredo. No
Lingua Stringa Lingua parlata rilevata nei dati audio trascritti.
Questo valore viene espresso come codice di lingua ISO-639-1 di due lettere, ad esempio 'en' o 'fr'.
No
Segmenti matrice di OpenAI.TranscriptionSegment Raccolta di informazioni sulla tempistica, le probabilità e altri dettagli di ogni segmento audio elaborato. No
Attività AudioTaskLabel Definisce i descrittori possibili per le risposte alle operazioni audio disponibili. No
Testo Stringa Testo trascritto per i dati audio forniti.
Parole matrice di OpenAI.TranscriptionWord Raccolta di informazioni sulla tempistica di ogni parola elaborata. No

AzureAudioTranslationResponse

Informazioni sui risultati per un'operazione che ha tradotto l'audio parlato in testo scritto.

Nome Digitare Descrizione Obbligatorio Predefinito
Durata Numero Durata totale dell'audio elaborato per produrre informazioni di traduzione accompagnate. No
Lingua Stringa Lingua parlata rilevata nei dati audio tradotti.
Questo valore viene espresso come codice di lingua ISO-639-1 di due lettere, ad esempio 'en' o 'fr'.
No
Segmenti matrice di AudioTranslationSegment Raccolta di informazioni sulla tempistica, le probabilità e altri dettagli di ogni segmento audio elaborato. No
Attività AudioTaskLabel Definisce i descrittori possibili per le risposte alle operazioni audio disponibili. No
Testo Stringa Testo tradotto per i dati audio forniti.

AzureCompletionsSamplingParams

Parametri di campionamento per controllare il comportamento dei completamenti.

Nome Digitare Descrizione Obbligatorio Predefinito
max_completion_tokens Intero No
max_tokens Intero Il numero massimo di token nell'output generato. No
reasoning_effort OpenAI.ReasoningEffort Vincola lo sforzo sul ragionamento per
ragionamento dei modelli.
I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
- gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.
- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.
- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.
- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max.
No
response_format OpenAI.ResponseFormatText o OpenAI.ResponseFormatJsonSchema o OpenAI.ResponseFormatJsonObject No
Seme Intero Un valore di inizializzazione inizializza la casualità durante il campionamento. No 42
Temperatura Numero Una temperatura più alta aumenta la casualità nelle uscite. No 1
Strumenti matrice di OpenAI.ChatCompletionTool No
top_p Numero Un'alternativa alla temperatura per il campionamento del nucleo; La versione 1.0 include tutti i gettoni. No 1

AzureContentFilterBlocklistIdResult

Elemento del risultato del filtro contenuto che associa un ID elenco di blocchi personalizzato esistente a un valore che indica se l'elenco di blocchi corrispondente ha causato il filtro del contenuto.

Nome Digitare Descrizione Obbligatorio Predefinito
Filtrata Boolean Indica se l'elenco di blocchi associato ha causato il filtro del contenuto.
Id Stringa ID dell'elenco di blocchi personalizzato associato allo stato filtrato.

AzureContentFilterBlocklistResult

Raccolta di risultati di filtro true/false per gli elenchi di blocchi personalizzati configurati.

Nome Digitare Descrizione Obbligatorio Predefinito
Dettagli matrice di oggetti Coppie di ID elenco di blocchi singoli e se hanno generato un'azione di filtro. No
Filtrata Boolean Valore che indica se uno degli elenchi di blocchi dettagliati ha generato un'azione di filtro.

AzureContentFilterCompletionTextSpan

Rappresentazione di un intervallo di testo di completamento usato dai risultati del filtro del contenuto OpenAI di Azure.

Nome Digitare Descrizione Obbligatorio Predefinito
completion_end_offset Intero Offset rispetto al primo punto codice UTF32 che viene escluso dalla campata. Questo campo è sempre uguale a completion_start_offset per le campate vuote. Questo campo è sempre più grande di completion_start_offset per le campate non vuote.
completion_start_offset Intero Offset rispetto al punto di codice UTF32 che inizia la campata.

AzureContentFilterCompletionTextSpanDetectionResult

Nome Digitare Descrizione Obbligatorio Predefinito
Dettagli matrice di AzureContentFilterCompletionTextSpan Informazioni dettagliate sugli intervalli di testo di completamento rilevati.
Rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
Filtrata Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.

AzureContentFilterCustomTopicIdResult

Elemento del risultato del filtro contenuto che associa un ID argomento personalizzato esistente a un valore che indica se l'argomento corrispondente ha causato o meno il rilevamento del contenuto.

Nome Digitare Descrizione Obbligatorio Predefinito
Rilevato Boolean Indica se l'argomento personalizzato associato ha generato il rilevamento del contenuto.
Id Stringa ID dell'argomento personalizzato associato allo stato rilevato.

AzureContentFilterCustomTopicResult

Raccolta di risultati di filtro true/false per gli argomenti personalizzati configurati.

Nome Digitare Descrizione Obbligatorio Predefinito
Dettagli matrice di oggetti Coppie di ID singoli argomenti e se vengono rilevate. No
Filtrata Boolean Valore che indica se uno degli argomenti dettagliati ha generato un'azione di filtro.

AzureContentFilterDetectionResult

Elemento del risultato del filtro contenuto con etichetta che indica se il contenuto è stato rilevato e se il contenuto è stato filtrato.

Nome Digitare Descrizione Obbligatorio Predefinito
Rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
Filtrata Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.

AzureContentFilterForResponsesAPI

Nome Digitare Descrizione Obbligatorio Predefinito
Bloccato Boolean Indicare se la risposta è bloccata.
content_filter_offsets AzureContentFilterResultOffsets
content_filter_results AzureContentFilterResultsForResponsesAPI
└custom_blocklists AzureContentFilterBlocklistResult Raccolta di risultati di filtro binario per gli elenchi di blocchi personalizzati configurati. No
└custom_topics AzureContentFilterCustomTopicResult Raccolta di risultati di filtro binario per gli argomenti personalizzati configurati. No
Errore └* Oggetto Se presente, vengono fornite informazioni dettagliate su un errore che impediva il completamento della valutazione del filtro del contenuto. No
Codice └++ Intero Codice distinto e leggibile dal computer associato all'errore.
└* messaggio Stringa Messaggio leggibile associato all'errore.
└> odio AzureContentFilterSeverityResult Categoria di filtro contenuto che può fare riferimento a qualsiasi contenuto che attacca o usa pejorative o discriminatorio
lingua con riferimento a una persona o a un gruppo di identità in base a determinati attributi di differenziazione di questi gruppi
incluso, ma non limitato alla razza, etnia, nazionalità, identità di genere ed espressione, orientamento sessuale,
religione, stato di immigrazione, stato abilità, aspetto personale, e dimensioni del corpo.
No
└indirect_attack AzureContentFilterDetectionResult Risultato del rilevamento che descrive gli attacchi ai sistemi basati su modelli di intelligenza artificiale generativi che possono verificarsi ogni volta
un'applicazione elabora le informazioni che non sono stati creati direttamente dallo sviluppatore dell'applicazione o
l'utente.
No
└* jailbreak AzureContentFilterDetectionResult Risultato del rilevamento che descrive gli attacchi di tipo prompt degli utenti, in cui gli utenti malintenzionati sfruttano deliberatamente
vulnerabilità di sistema per l'annullamento di comportamenti non autorizzati da LLM. Ciò potrebbe causare contenuti inappropriati
generazione o violazioni delle restrizioni imposte dal sistema.
└personally_identifiable_information AzureContentFilterPersonallyIdentifiableInformationResult Risultato del rilevamento che descrive le corrispondenze con informazioni personali con sottocategorie configurabili. No
└* volgarità AzureContentFilterDetectionResult Risultato di rilevamento che identifica se il linguaggio grezzo, volgare o in altro modo obiezione è presente nel
Contenuto.
No
└protected_material_code Oggetto Risultato del rilevamento che descrive una corrispondenza rispetto al codice concesso in licenza o ad altri materiali di origine protetti. No
Citazione └* Oggetto Se disponibile, i dettagli della citazione che descrivono la licenza associata e la relativa posizione. No
└* URL Stringa URL associato alla licenza. No
└* licenza Stringa Nome o identificatore della licenza associata al rilevamento. No
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
└protected_material_text AzureContentFilterDetectionResult Risultato del rilevamento che descrive una corrispondenza con il testo protetto da copyright o altro stato. No
└self_harm AzureContentFilterSeverityResult Categoria di filtro del contenuto che descrive il linguaggio correlato alle azioni fisiche destinate a ferire intenzionalmente, ferire,
danneggiare il corpo o uccidersi.
No
└* sessuale AzureContentFilterSeverityResult Una categoria di filtro del contenuto per il linguaggio correlato a organi anatomici e genitali, relazioni romantiche, atti
ritratto in termini erotici o affettuosi, gravidanza, atti sessuali fisici, compresi quelli rappresentati come un
aggressione o atto violento sessuale forzato contro la volontà, la prostituzione, la pornografia e l'abuso.
No
└task_adherence AzureContentFilterDetectionResult Risultato del rilevamento che indica se il flusso di esecuzione continua a mantenere il piano.
└ungrounded_material AzureContentFilterCompletionTextSpanDetectionResult No
└* violenza AzureContentFilterSeverityResult Categoria di filtro del contenuto per la lingua correlata alle azioni fisiche destinate a ferire, ferire, danneggiare o uccidere
qualcuno o qualcosa; descrive armi, armi e entità correlate, ad esempio fabbricazioni, associazioni,
legislazione, e così via.
No
source_type Stringa Nome del tipo di origine del messaggio.

AzureContentFilterHarmExtensions

Estensioni per categorie dannose, fornendo opzioni di configurazione aggiuntive.

Nome Digitare Descrizione Obbligatorio Predefinito
pii_sub_categories matrice di AzurePiiSubCategory Configurazione per PIIHarmSubCategory.Configuration for PIIHarmSubCategory(s). No

AzureContentFilterImagePromptResults

Risultato di un filtro contenuto per il contenuto della richiesta di input di un'operazione di generazione di immagini.

Nome Digitare Descrizione Obbligatorio Predefinito
custom_blocklists AzureContentFilterBlocklistResult Raccolta di risultati di filtro true/false per gli elenchi di blocchi personalizzati configurati. No
└* dettagli matrice di oggetti Coppie di ID elenco di blocchi singoli e se hanno generato un'azione di filtro. No
└* filtrato Boolean Valore che indica se l'elenco di blocchi ha generato un'azione di filtro.
└* id Stringa ID dell'elenco di blocchi personalizzato valutato.
└* filtrato Boolean Valore che indica se uno degli elenchi di blocchi dettagliati ha generato un'azione di filtro.
custom_topics AzureContentFilterCustomTopicResult Raccolta di risultati di filtro true/false per gli argomenti personalizzati configurati. No
└* dettagli matrice di oggetti Coppie di ID singoli argomenti e se vengono rilevate. No
└> rilevato Boolean Valore che indica se l'argomento viene rilevato.
└* id Stringa ID dell'argomento personalizzato valutato.
└* filtrato Boolean Valore che indica se uno degli argomenti dettagliati ha generato un'azione di filtro.
Odio AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
Jailbreak AzureContentFilterDetectionResult Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era
Filtrata.
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
volgarità AzureContentFilterDetectionResult Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era
Filtrata.
No
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
self_harm AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
Sessuale AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
Violenza AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high

AzureContentFilterImageResponseResults

Risultato di un filtro contenuto per il contenuto della risposta di output di un'operazione di generazione di immagini.

Nome Digitare Descrizione Obbligatorio Predefinito
Odio AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
self_harm AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
Sessuale AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
Violenza AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high

AzureContentFilterPersonallyIdentifiableInformationResult

Risultato del rilevamento del filtro del contenuto per informazioni personali che includono estensioni dannose.

Nome Digitare Descrizione Obbligatorio Predefinito
Rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
Filtrata Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
redacted_text Stringa Testo scritto con informazioni personali rimosse o mascherate. No
sub_categories matrice di AzurePiiSubCategoryResult Risultati dettagliati per singoli PIIHarmSubCategory. No

AzureContentFilterResultForChoice

Risultato di un filtro contenuto per un singolo elemento di risposta prodotto da un sistema di intelligenza artificiale generativo.

Nome Digitare Descrizione Obbligatorio Predefinito
custom_blocklists AzureContentFilterBlocklistResult Raccolta di risultati di filtro true/false per gli elenchi di blocchi personalizzati configurati. No
└* dettagli matrice di oggetti Coppie di ID elenco di blocchi singoli e se hanno generato un'azione di filtro. No
└* filtrato Boolean Valore che indica se l'elenco di blocchi ha generato un'azione di filtro.
└* id Stringa ID dell'elenco di blocchi personalizzato valutato.
└* filtrato Boolean Valore che indica se uno degli elenchi di blocchi dettagliati ha generato un'azione di filtro.
custom_topics AzureContentFilterCustomTopicResult Raccolta di risultati di filtro true/false per gli argomenti personalizzati configurati. No
└* dettagli matrice di oggetti Coppie di ID singoli argomenti e se vengono rilevate. No
└> rilevato Boolean Valore che indica se l'argomento viene rilevato.
└* id Stringa ID dell'argomento personalizzato valutato.
└* filtrato Boolean Valore che indica se uno degli argomenti dettagliati ha generato un'azione di filtro.
Errore Oggetto Se presente, vengono fornite informazioni dettagliate su un errore che impediva il completamento della valutazione del filtro del contenuto. No
Codice └++ Intero Codice distinto e leggibile dal computer associato all'errore.
└* messaggio Stringa Messaggio leggibile associato all'errore.
Odio AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
personally_identifiable_information AzureContentFilterPersonallyIdentifiableInformationResult Risultato del rilevamento del filtro del contenuto per informazioni personali che includono estensioni dannose. No
└redacted_text Stringa Testo scritto con informazioni personali rimosse o mascherate. No
└sub_categories matrice di AzurePiiSubCategoryResult Risultati dettagliati per singoli PIIHarmSubCategory. No
volgarità AzureContentFilterDetectionResult Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era
Filtrata.
No
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
protected_material_code Oggetto Risultato del rilevamento che descrive una corrispondenza rispetto al codice concesso in licenza o ad altri materiali di origine protetti. No
Citazione └* Oggetto Se disponibile, i dettagli della citazione che descrivono la licenza associata e la relativa posizione. No
└* URL Stringa URL associato alla licenza. No
└* licenza Stringa Nome o identificatore della licenza associata al rilevamento. No
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
protected_material_text AzureContentFilterDetectionResult Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era
Filtrata.
No
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
self_harm AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
Sessuale AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
ungrounded_material AzureContentFilterCompletionTextSpanDetectionResult No
Violenza AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high

AzureContentFilterResultForPrompt

Risultato di un filtro contenuto associato a un singolo elemento del prompt di input in un sistema di intelligenza artificiale generativo.

Nome Digitare Descrizione Obbligatorio Predefinito
content_filter_results Oggetto Dettagli della categoria del filtro contenuto per il risultato. No
└custom_blocklists AzureContentFilterBlocklistResult Raccolta di risultati di filtro true/false per gli elenchi di blocchi personalizzati configurati. No
└* dettagli matrice di oggetti Coppie di ID elenco di blocchi singoli e se hanno generato un'azione di filtro. No
└* filtrato Boolean Valore che indica se l'elenco di blocchi ha generato un'azione di filtro.
└* id Stringa ID dell'elenco di blocchi personalizzato valutato.
└* filtrato Boolean Valore che indica se uno degli elenchi di blocchi dettagliati ha generato un'azione di filtro.
└custom_topics AzureContentFilterCustomTopicResult Raccolta di risultati di filtro true/false per gli argomenti personalizzati configurati. No
└* dettagli matrice di oggetti Coppie di ID singoli argomenti e se vengono rilevate. No
└> rilevato Boolean Valore che indica se l'argomento viene rilevato.
└* id Stringa ID dell'argomento personalizzato valutato.
└* filtrato Boolean Valore che indica se uno degli argomenti dettagliati ha generato un'azione di filtro.
Errore └* Oggetto Se presente, vengono fornite informazioni dettagliate su un errore che impediva il completamento della valutazione del filtro del contenuto. No
Codice └++ Intero Codice distinto e leggibile dal computer associato all'errore.
└* messaggio Stringa Messaggio leggibile associato all'errore.
└> odio AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
└indirect_attack AzureContentFilterDetectionResult Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era
Filtrata.
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
└* jailbreak AzureContentFilterDetectionResult Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era
Filtrata.
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
└* volgarità AzureContentFilterDetectionResult Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era
Filtrata.
No
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
└self_harm AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
└* sessuale AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
└* violenza AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
prompt_index Intero Indice del prompt di input associato alle categorie di risultati del filtro contenuto associato. No

AzureContentFilterResultOffsets

Nome Digitare Descrizione Obbligatorio Predefinito
check_offset Intero
end_offset Intero
start_offset Intero

AzureContentFilterResultsForResponsesAPI

Nome Digitare Descrizione Obbligatorio Predefinito
custom_blocklists AzureContentFilterBlocklistResult Raccolta di risultati di filtro true/false per gli elenchi di blocchi personalizzati configurati. No
└* dettagli matrice di oggetti Coppie di ID elenco di blocchi singoli e se hanno generato un'azione di filtro. No
└* filtrato Boolean Valore che indica se l'elenco di blocchi ha generato un'azione di filtro.
└* id Stringa ID dell'elenco di blocchi personalizzato valutato.
└* filtrato Boolean Valore che indica se uno degli elenchi di blocchi dettagliati ha generato un'azione di filtro.
custom_topics AzureContentFilterCustomTopicResult Raccolta di risultati di filtro true/false per gli argomenti personalizzati configurati. No
└* dettagli matrice di oggetti Coppie di ID singoli argomenti e se vengono rilevate. No
└> rilevato Boolean Valore che indica se l'argomento viene rilevato.
└* id Stringa ID dell'argomento personalizzato valutato.
└* filtrato Boolean Valore che indica se uno degli argomenti dettagliati ha generato un'azione di filtro.
Errore Oggetto Se presente, vengono fornite informazioni dettagliate su un errore che impediva il completamento della valutazione del filtro del contenuto. No
Codice └++ Intero Codice distinto e leggibile dal computer associato all'errore.
└* messaggio Stringa Messaggio leggibile associato all'errore.
Odio AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
indirect_attack AzureContentFilterDetectionResult Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era
Filtrata.
No
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
Jailbreak AzureContentFilterDetectionResult Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era
Filtrata.
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
personally_identifiable_information AzureContentFilterPersonallyIdentifiableInformationResult Risultato del rilevamento del filtro del contenuto per informazioni personali che includono estensioni dannose. No
└redacted_text Stringa Testo scritto con informazioni personali rimosse o mascherate. No
└sub_categories matrice di AzurePiiSubCategoryResult Risultati dettagliati per singoli PIIHarmSubCategory. No
volgarità AzureContentFilterDetectionResult Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era
Filtrata.
No
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
protected_material_code Oggetto Risultato del rilevamento che descrive una corrispondenza rispetto al codice concesso in licenza o ad altri materiali di origine protetti. No
Citazione └* Oggetto Se disponibile, i dettagli della citazione che descrivono la licenza associata e la relativa posizione. No
└* URL Stringa URL associato alla licenza. No
└* licenza Stringa Nome o identificatore della licenza associata al rilevamento. No
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
protected_material_text AzureContentFilterDetectionResult Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era
Filtrata.
No
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
self_harm AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
Sessuale AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
task_adherence AzureContentFilterDetectionResult Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era
Filtrata.
└> rilevato Boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
└* filtrato Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.
ungrounded_material AzureContentFilterCompletionTextSpanDetectionResult No
Violenza AzureContentFilterSeverityResult Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
No
└* filtrato Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
└> gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high

AzureContentFilterSeverityResult

Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato filtrato e quale livello di gravità qualitativo del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.

Nome Digitare Descrizione Obbligatorio Predefinito
Filtrata Boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
Gravità Enum Gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high

AzureFileExpiryAnchor

Proprietà Valore
Digitare Stringa
Valori created_at

AzureFineTuneReinforcementMethod

Nome Digitare Descrizione Obbligatorio Predefinito
Selezionatore OpenAI.GraderStringCheck o OpenAI.GraderTextSimilarity o OpenAI.GraderScoreModel o OpenAI.GraderMulti o GraderEndpoint
iperparametri OpenAI.FineTuneReinforcementHyperparameters Iperparametri usati per il processo di ottimizzazione dell'ottimizzazione per rinforzo. No
response_format ResponseFormatJSONSchemaRequest No
└json_schema Oggetto Schema JSON per il formato di risposta
Tipo └* Enum Tipo di formato di risposta
Valori possibili: json_schema

AzurePiiSubCategory

Configurazione per singole estensioni PIIHarmSubCategory all'interno del framework delle estensioni dannose.

Nome Digitare Descrizione Obbligatorio Predefinito
Rilevare Boolean Indica se il rilevamento è abilitato per questa sottocategoria.
Filtro Boolean Indica se il contenuto contenente questa sottocategoria deve essere bloccato.
redact Boolean Indica se il contenuto contenente questa sottocategoria deve essere redatto.
sub_category Stringa PIIHarmSubCategory configurato.

AzurePiiSubCategoryResult

Dettagli dei risultati per singoli PIIHarmSubCategory.Result details for individual PIIHarmSubCategory(s).

Nome Digitare Descrizione Obbligatorio Predefinito
Rilevato Boolean Indica se la sottocategoria contenuto etichettata è stata rilevata nel contenuto.
Filtrata Boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto per questa sottocategoria.
Redatto Boolean Indica se il contenuto è stato redatto per questa sottocategoria.
sub_category Stringa PIIHarmSubCategory valutato.

AzureResponsesSamplingParams

Parametri di campionamento per controllare il comportamento delle risposte.

Nome Digitare Descrizione Obbligatorio Predefinito
max_tokens Intero Il numero massimo di token nell'output generato. No
reasoning_effort OpenAI.ReasoningEffort Vincola lo sforzo sul ragionamento per
ragionamento dei modelli.
I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
- gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.
- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.
- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.
- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max.
No
Seme Intero Un valore di inizializzazione inizializza la casualità durante il campionamento. No 42
Temperatura Numero Una temperatura più alta aumenta la casualità nelle uscite. No 1
Testo OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText No
Strumenti matrice di OpenAI.Tool No
top_p Numero Un'alternativa alla temperatura per il campionamento del nucleo; La versione 1.0 include tutti i gettoni. No 1

AzureUserSecurityContext

Il contesto di sicurezza utente contiene diversi parametri che descrivono l'applicazione stessa e l'utente finale che interagisce con l'applicazione. Questi settori aiutano i team delle operazioni di sicurezza a indagare e mitigare gli incidenti di sicurezza fornendo un approccio completo alla protezione delle applicazioni IA. Altre informazioni sulla protezione delle applicazioni di intelligenza artificiale con Microsoft Defender per il cloud.

Nome Digitare Descrizione Obbligatorio Predefinito
application_name Stringa Il nome della domanda. Informazioni personali sensibili non dovrebbero essere incluse in questo campo. No
end_user_id Stringa Questo identificatore è l'ID utente microsoft Entra (in precedenza Azure Active Directory) usato per autenticare gli utenti finali all'interno dell'applicazione di intelligenza artificiale generativa. Informazioni personali sensibili non dovrebbero essere incluse in questo campo. No
end_user_tenant_id Stringa ID tenant di Microsoft 365 a cui appartiene l'utente finale. È necessario quando l'applicazione di intelligenza artificiale generativa è multi-tenant. No
source_ip Stringa Acquisisce l'indirizzo IP del client originale. No

CopiedAccountDetails

Nome Digitare Descrizione Obbligatorio Predefinito
destinationResourceId Stringa ID della risorsa di destinazione in cui è stato copiato il modello.
Regione Stringa Area in cui è stato copiato il modello.
Stato Enum Stato dell'operazione di copia.
Valori possibili: Completed, Failed, InProgress

CopyModelRequest

Nome Digitare Descrizione Obbligatorio Predefinito
destinationResourceId Stringa ID della risorsa di destinazione da copiare.
Regione Stringa Area in cui copiare il modello.

CopyModelResponse

Nome Digitare Descrizione Obbligatorio Predefinito
checkpointedModelName Stringa ID del modello copiato.
copiedAccountDetails matrice di CopiedAccountDetails ID dell'ID risorsa di destinazione in cui è stato copiato
fineTuningJobId Stringa ID del processo di ottimizzazione da cui è stato copiato il checkpoint.

CreateVideoBody

Nome Digitare Descrizione Obbligatorio Predefinito
Modello Stringa Nome della distribuzione da usare per questa richiesta.
prompt Stringa Richiesta di testo che descrive il video da generare.
Vincoli: minLength: 1
Secondi VideoSecondi Durate di clip supportate, misurate in secondi. No 4
Dimensione VideoSize Dimensioni di output formattate come {width}x{height}. No 720x1280

CreateVideoBodyWithInputReference

Proprietà di una richiesta di processo di generazione video con file multimediali.

Nome Digitare Descrizione Obbligatorio Predefinito
input_reference Oggetto Informazioni di riferimento facoltative sulle immagini che guidano la generazione.
Modello Oggetto Nome della distribuzione da usare per questa richiesta.
prompt Oggetto Richiesta di testo che descrive il video da generare.
Secondi Oggetto Durata clip in secondi. Il valore predefinito è 4 secondi. No
Dimensione Oggetto Risoluzione di output formattata come larghezza x altezza. Il valore predefinito è 720x1280. No

CreateVideoRemixBody

Parametri per il remixing di un video generato esistente.

Nome Digitare Descrizione Obbligatorio Predefinito
prompt Stringa Richiesta di testo aggiornata che indirizza la generazione del remix.
Vincoli: minLength: 1

DeletedVideoResource

Payload di conferma restituito dopo l'eliminazione di un video.

Nome Digitare Descrizione Obbligatorio Predefinito
Eliminato Boolean Indica che la risorsa video è stata eliminata. Vero
Id Stringa Identificatore del video eliminato.
Oggetto Stringa Tipo di oggetto che segnala la risposta di eliminazione. video.deleted

Errore

Nome Digitare Descrizione Obbligatorio Predefinito
Codice Stringa
Messaggio Stringa

EvalGraderEndpoint

Nome Digitare Descrizione Obbligatorio Predefinito
Intestazioni oggetto o null Intestazioni HTTP facoltative da includere nelle richieste all'endpoint No
Nome Stringa Nome del grader
pass_threshold number o null Punteggio soglia facoltativo al di sopra del quale il voto viene considerato superato
Se non specificato, tutti i punteggi vengono considerati validi
No
rate_limit integer o null Limite di frequenza facoltativo per le richieste al secondo all'endpoint
Deve essere un numero intero positivo
No
digitare Enum
Valori possibili: endpoint
Url Stringa URL HTTPS dell'endpoint da chiamare per la classificazione
Vincoli: modello: ^https://

GraderEndpoint

Configurazione dell'endpoint grader per la valutazione esterna dell'endpoint HTTP

Nome Digitare Descrizione Obbligatorio Predefinito
Intestazioni oggetto o null Intestazioni HTTP facoltative da includere nelle richieste all'endpoint No
Nome Stringa Nome del grader
pass_threshold number o null Punteggio soglia facoltativo al di sopra del quale il voto viene considerato superato
Se non specificato, tutti i punteggi vengono considerati validi
No
rate_limit integer o null Limite di frequenza facoltativo per le richieste al secondo all'endpoint
Deve essere un numero intero positivo
No
digitare Enum
Valori possibili: endpoint
Url Stringa URL HTTPS dell'endpoint da chiamare per la classificazione
Vincoli: modello: ^https://

OpenAI.Annotation

Annotazione applicabile a un intervallo di testo di output.

Discriminare per OpenAI.Annotation

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
file_citation OpenAI.FileCitationBody
url_citation OpenAI.UrlCitationBody
container_file_citation OpenAI.ContainerFileCitationBody
file_path OpenAI.FilePath
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.AnnotationType

OpenAI.AnnotationType

Proprietà Valore
Digitare Stringa
Valori file_citation
url_citation
container_file_citation
file_path

OpenAI.ApplyPatchCallOutputStatus

Proprietà Valore
Digitare Stringa
Valori completed
failed

OpenAI.ApplyPatchCallStatus

Proprietà Valore
Digitare Stringa
Valori in_progress
completed

OpenAI.ApplyPatchCreateFileOperation

Istruzioni che descrivono come creare un file tramite lo strumento apply_patch.

Nome Digitare Descrizione Obbligatorio Predefinito
Diff Stringa Diff da applicare.
Percorso Stringa Percorso del file da creare.
digitare Enum Creare un nuovo file con la diff fornita.
Valori possibili: create_file

OpenAI.ApplyPatchDeleteFileOperation

Istruzioni che descrivono come eliminare un file tramite lo strumento apply_patch.

Nome Digitare Descrizione Obbligatorio Predefinito
Percorso Stringa Percorso del file da eliminare.
digitare Enum Eliminare il file specificato.
Valori possibili: delete_file

OpenAI.ApplyPatchFileOperation

Una delle operazioni di create_file, delete_file o update_file applicate tramite apply_patch.

Discriminare per OpenAI.ApplyPatchFileOperation

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
create_file OpenAI.ApplyPatchCreateFileOperation
delete_file OpenAI.ApplyPatchDeleteFileOperation
update_file OpenAI.ApplyPatchUpdateFileOperation
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.ApplyPatchFileOperationType

OpenAI.ApplyPatchFileOperationType

Proprietà Valore
Digitare Stringa
Valori create_file
delete_file
update_file

OpenAI.ApplyPatchToolParam

Consente all'assistente di creare, eliminare o aggiornare i file usando differenze unificate.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Il tipo di attrezzo. Sempre apply_patch.
Valori possibili: apply_patch

OpenAI.ApplyPatchUpdateFileOperation

Istruzioni che descrivono come aggiornare un file tramite lo strumento apply_patch.

Nome Digitare Descrizione Obbligatorio Predefinito
Diff Stringa Diff da applicare.
Percorso Stringa Percorso del file da aggiornare.
digitare Enum Aggiornare un file esistente con la diff fornita.
Valori possibili: update_file

OpenAI.ApproximateLocation

Nome Digitare Descrizione Obbligatorio Predefinito
Città stringa o null No
Paese stringa o null No
Regione stringa o null No
Fuso orario stringa o null No
digitare Enum Tipo di approssimazione della posizione. Sempre approximate.
Valori possibili: approximate

OpenAI.AssistantTool

Discriminare per OpenAI.AssistantTool

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
code_interpreter OpenAI.AssistantToolsCode
file_search OpenAI.AssistantToolsFileSearch
function OpenAI.AssistantToolsFunction
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.AssistantToolType

OpenAI.AssistantToolType

Proprietà Valore
Digitare Stringa
Valori code_interpreter
file_search
function

OpenAI.AssistantToolsCode

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Il tipo di strumento definito: code_interpreter
Valori possibili: code_interpreter

OpenAI.AssistantToolsFileSearch

Nome Digitare Descrizione Obbligatorio Predefinito
file_search OpenAI.AssistantToolsFileSearchFileSearch No
└max_num_results Intero Vincoli: min: 1, max: 50 No
└ranking_options OpenAI.FileSearchRankingOptions Opzioni di classificazione per la ricerca di file. Se non specificato, lo strumento di ricerca file userà il auto ranker e un score_threshold pari a 0.
Per altre informazioni, vedere la documentazione dello strumento di ricerca file .
No
digitare Enum Il tipo di strumento definito: file_search
Valori possibili: file_search

OpenAI.AssistantToolsFileSearchFileSearch

Nome Digitare Descrizione Obbligatorio Predefinito
max_num_results Intero Vincoli: min: 1, max: 50 No
ranking_options OpenAI.FileSearchRankingOptions Opzioni di classificazione per la ricerca di file. Se non specificato, lo strumento di ricerca file userà il auto ranker e un score_threshold pari a 0.
Per altre informazioni, vedere la documentazione dello strumento di ricerca file .
No

OpenAI.AssistantToolsFileSearchTypeOnly

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Il tipo di strumento definito: file_search
Valori possibili: file_search

OpenAI.AssistantToolsFunction

Nome Digitare Descrizione Obbligatorio Predefinito
Funzione OpenAI.FunctionObject
digitare Enum Il tipo di strumento definito: function
Valori possibili: function

OpenAI.AssistantsApiResponseFormatOption

Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106. L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere Impostazione per { "type": "json_object" } abilitare la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido. Importante:* quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto.

Tipo: string o OpenAI.ResponseFormatText o OpenAI.ResponseFormatJsonObject o OpenAI.ResponseFormatJsonSchema

Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106. L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere Impostazione per { "type": "json_object" } abilitare la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido. Importante:* quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto.

OpenAI.AssistantsApiToolChoiceOption

Controlla quale (se presente) strumento viene chiamato dal modello. none significa che il modello non richiamerà nessuno strumento ma invece genera un messaggio. auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti. required indica che il modello deve chiamare uno o più strumenti prima di rispondere all'utente. Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo.

Tipo: string o OpenAI.AssistantsNamedToolChoice

Controlla quale (se presente) strumento viene chiamato dal modello. none significa che il modello non richiamerà nessuno strumento ma invece genera un messaggio. auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti. required indica che il modello deve chiamare uno o più strumenti prima di rispondere all'utente. Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo.

OpenAI.AssistantsNamedToolChoice

Specifica uno strumento che il modello dovrebbe utilizzare. Usalo per forzare il modello a chiamare uno strumento specifico.

Nome Digitare Descrizione Obbligatorio Predefinito
Funzione OpenAI.AssistantsNamedToolChoiceFunction No
digitare Enum Il tipo di attrezzo. Se il tipo è function, il nome della funzione deve essere impostato
Valori possibili: function, code_interpreter, file_search

OpenAI.AssistantsNamedToolChoiceFunction

Nome Digitare Descrizione Obbligatorio Predefinito
Nome Stringa

OpenAI.AudioTranscription

Nome Digitare Descrizione Obbligatorio Predefinito
Lingua Stringa Il linguaggio dell'audio in ingresso. Specifica della lingua di input in
Formato ISO-639-1 (ad esempio en)
migliorerà l'accuratezza e la latenza.
No
Modello Stringa Il modello da usare per la trascrizione. Le opzioni correnti sono whisper-1, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15gpt-4o-transcribe, e gpt-4o-transcribe-diarize. Usare gpt-4o-transcribe-diarize quando è necessaria la diarizzazione con le etichette dell'altoparlante. No
prompt Stringa Testo facoltativo per guidare lo stile del modello o continuare un audio precedente
Segmento.
Per whisper-1, il prompt è un elenco di parole chiave.
Per gpt-4o-transcribe i modelli (escluso gpt-4o-transcribe-diarize), il prompt è una stringa di testo libero, ad esempio "aspetta parole correlate alla tecnologia".
No

OpenAI.AutoChunkingStrategyRequestParam

La strategia predefinita. Questa strategia attualmente utilizza un max_chunk_size_tokens di 800 e chunk_overlap_tokens di 400.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Sempre auto.
Valori possibili: auto

OpenAI.Batch

Nome Digitare Descrizione Obbligatorio Predefinito
cancelled_at Intero Timestamp Unix (in secondi) per il momento in cui il batch è stato annullato. No
cancelling_at Intero Timestamp Unix (in secondi) per l'avvio dell'annullamento del batch. No
completed_at Intero Timestamp Unix (in secondi) per il completamento del batch. No
completion_window Stringa Il tempo entro cui il lotto deve essere elaborato.
created_at Intero Timestamp Unix (in secondi) per il momento in cui è stato creato il batch.
Endpoint Stringa Endpoint DELL'API OpenAI usato dal batch.
error_file_id Stringa ID del file contenente gli output delle richieste con errori. No
Errori OpenAI.BatchErrors No
expired_at Intero Timestamp Unix (in secondi) per quando il batch è scaduto. No
expires_at Intero Timestamp Unix (in secondi) per la scadenza del batch. No
failed_at Intero Timestamp Unix (in secondi) per quando il batch non è riuscito. No
finalizing_at Intero Timestamp Unix (in secondi) per quando il batch ha iniziato a finalizzare. No
Id Stringa
in_progress_at Intero Timestamp Unix (in secondi) per l'avvio dell'elaborazione del batch. No
input_file_id stringa o null No
Metadati OpenAI.Metadata o Null No
Modello Stringa ID modello usato per elaborare il batch, ad esempio gpt-5-2025-08-07. OpenAI
offre un'ampia gamma di modelli con diverse funzionalità, prestazioni
caratteristiche e punti di prezzo. Fare riferimento al modello
guida
per esplorare e confrontare i modelli disponibili.
No
Oggetto Enum Il tipo di oggetto, che è sempre batch.
Valori possibili: batch
output_file_id Stringa ID del file contenente gli output delle richieste eseguite correttamente. No
request_counts OpenAI.BatchRequestCounts La richiesta conta per stati diversi all'interno del lotto. No
Stato Enum Stato corrente del batch.
Valori possibili: validating, failed, in_progress, finalizing, completed, expired, cancelling, cancelled
Utilizzo OpenAI.BatchUsage No
└input_tokens Intero
└input_tokens_details OpenAI.BatchUsageInputTokensDetails
└output_tokens Intero
└output_tokens_details OpenAI.BatchUsageOutputTokensDetails
└total_tokens Intero

OpenAI.BatchError

Nome Digitare Descrizione Obbligatorio Predefinito
Codice Stringa Un codice di errore che identifica il tipo di errore. No
Linea integer o null No
Messaggio Stringa Un messaggio leggibile dall'uomo che fornisce maggiori dettagli sull'errore. No
Param stringa o null No

OpenAI.BatchErrors

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.BatchError No
Oggetto Stringa No

OpenAI.BatchRequestCounts

La richiesta conta per stati diversi all'interno del lotto.

Nome Digitare Descrizione Obbligatorio Predefinito
Completato Intero Numero di richieste completate correttamente.
Fallito Intero Numero di richieste non riuscite.
Totale Intero Numero totale di richieste nel batch.

OpenAI.BatchUsage

Nome Digitare Descrizione Obbligatorio Predefinito
input_tokens Intero
input_tokens_details OpenAI.BatchUsageInputTokensDetails
output_tokens Intero
output_tokens_details OpenAI.BatchUsageOutputTokensDetails
total_tokens Intero

OpenAI.BatchUsageInputTokensDetails

Nome Digitare Descrizione Obbligatorio Predefinito
cached_tokens Intero

OpenAI.BatchUsageOutputTokensDetails

Nome Digitare Descrizione Obbligatorio Predefinito
reasoning_tokens Intero

OpenAI.ChatCompletionAllowedTools

Vincola gli strumenti disponibili al modello a un set predefinito.

Nome Digitare Descrizione Obbligatorio Predefinito
Modalità Enum Vincola gli strumenti disponibili al modello a un set predefinito.
auto consente al modello di scegliere tra gli strumenti consentiti e generare un
Messaggio.
required richiede al modello di chiamare uno o più degli strumenti consentiti.
Valori possibili: auto, required
Strumenti matrice di oggetti Elenco di definizioni degli strumenti che il modello deve essere autorizzato a chiamare.
Per l'API Completamento chat, l'elenco delle definizioni degli strumenti potrebbe essere simile al seguente:
json<br> [<br> { "type": "function", "function": { "name": "get_weather" } },<br> { "type": "function", "function": { "name": "get_time" } }<br> ]<br>

OpenAI.ChatCompletionAllowedToolsChoice

Vincola gli strumenti disponibili al modello a un set predefinito.

Nome Digitare Descrizione Obbligatorio Predefinito
allowed_tools OpenAI.ChatCompletionAllowedTools Vincola gli strumenti disponibili al modello a un set predefinito.
digitare Enum Tipo di configurazione dello strumento consentito. Sempre allowed_tools.
Valori possibili: allowed_tools

OpenAI.ChatCompletionFunctionCallOption

Specificare una particolare funzione via {"name": "my_function"} obbliga il modello a chiamare quella funzione.

Nome Digitare Descrizione Obbligatorio Predefinito
Nome Stringa Il nome della funzione da chiamare.

OpenAI.ChatCompletionFunctions

Nome Digitare Descrizione Obbligatorio Predefinito
Descrizione Stringa Una descrizione di ciò che fa la funzione, usata dal modello per scegliere quando e come chiamarla. No
Nome Stringa Il nome della funzione da chiamare. Devono essere dalla a-z, dalla A-Z, da 0 a 9, oppure contenere sottolineamenti e trattini, con una lunghezza massima di 64.
Parametri OpenAI.FunctionParameters I parametri che le funzioni accettano, descritti come un oggetto JSON Schema. Vedere la guida per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato.
Omettere parameters definisce una funzione con una lista di parametri vuota.
No

OpenAI.ChatCompletionMessageCustomToolCall

Chiamata a uno strumento personalizzato creato dal modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Personalizzato OpenAI.ChatCompletionMessageCustomToolCallCustom
Input └* Stringa
└> nome Stringa
Id Stringa L'ID della chiamata dello strumento.
digitare Enum Il tipo di attrezzo. Sempre custom.
Valori possibili: custom

OpenAI.ChatCompletionMessageCustomToolCallCustom

Nome Digitare Descrizione Obbligatorio Predefinito
Input Stringa
Nome Stringa

OpenAI.ChatCompletionMessageToolCall

Chiamata a uno strumento di funzione creato dal modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Funzione OpenAI.ChatCompletionMessageToolCallFunction
Argomenti └* Stringa
└> nome Stringa
Id Stringa L'ID della chiamata dello strumento.
digitare Enum Il tipo di attrezzo. Attualmente, solo function è supportato.
Valori possibili: function

OpenAI.ChatCompletionMessageToolCallChunk

Nome Digitare Descrizione Obbligatorio Predefinito
Funzione OpenAI.ChatCompletionMessageToolCallChunkFunction No
Id Stringa L'ID della chiamata dello strumento. No
Indice Intero
digitare Enum Il tipo di attrezzo. Attualmente, solo function è supportato.
Valori possibili: function
No

OpenAI.ChatCompletionMessageToolCallChunkFunction

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa No
Nome Stringa No

OpenAI.ChatCompletionMessageToolCallFunction

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa
Nome Stringa

OpenAI.ChatCompletionMessageToolCalls

Le chiamate degli strumenti generate dal modello, come le chiamate di funzione.

OpenAI.ChatCompletionMessageToolCallsItem

Le chiamate degli strumenti generate dal modello, come le chiamate di funzione.

OpenAI.ChatCompletionNamedToolChoice

Specifica uno strumento che il modello dovrebbe utilizzare. Usa per forzare il modello a chiamare una funzione specifica.

Nome Digitare Descrizione Obbligatorio Predefinito
Funzione OpenAI.ChatCompletionNamedToolChoiceFunction
digitare Enum Per la chiamata di funzioni, il tipo è sempre function.
Valori possibili: function

OpenAI.ChatCompletionNamedToolChoiceCustom

Specifica uno strumento che il modello dovrebbe utilizzare. Usare per forzare il modello a chiamare uno strumento personalizzato specifico.

Nome Digitare Descrizione Obbligatorio Predefinito
Personalizzato OpenAI.ChatCompletionNamedToolChoiceCustomCustom
digitare Enum Per la chiamata a uno strumento personalizzato, il tipo è sempre custom.
Valori possibili: custom

OpenAI.ChatCompletionNamedToolChoiceCustomCustom

Nome Digitare Descrizione Obbligatorio Predefinito
Nome Stringa

OpenAI.ChatCompletionNamedToolChoiceFunction

Nome Digitare Descrizione Obbligatorio Predefinito
Nome Stringa

OpenAI.ChatCompletionRequestAssistantMessage

Messaggi inviati dal modello in risposta ai messaggi utente.

Nome Digitare Descrizione Obbligatorio Predefinito
Audio OpenAI.ChatCompletionRequestAssistantMessageAudio o null Dati relativi a una risposta audio precedente dal modello. No
Contenuto stringa o matrice di OpenAI.ChatCompletionRequestAssistantMessageContentPart o null No
function_call OpenAI.ChatCompletionRequestAssistantMessageFunctionCall o null No
Nome Stringa Un nome opzionale per il partecipante. Fornisce le informazioni sul modello per differenziare i partecipanti dello stesso ruolo. No
Rifiuto stringa o null No
Ruolo Enum Il ruolo dell'autore dei messaggi, in questo caso assistant.
Valori possibili: assistant
tool_calls OpenAI.ChatCompletionMessageToolCalls Le chiamate degli strumenti generate dal modello, come le chiamate di funzione. No

OpenAI.ChatCompletionRequestAssistantMessageAudio

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa

OpenAI.ChatCompletionRequestAssistantMessageContentPart

Discriminatorio per OpenAI.ChatCompletionRequestAssistantMessageContentPart

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
refusal OpenAI.ChatCompletionRequestMessageContentPartRefusal
text OpenAI.ChatCompletionRequestAssistantMessageContentPartChatCompletionRequestMessageContentPartText
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.ChatCompletionRequestAssistantMessageContentPartType

OpenAI.ChatCompletionRequestAssistantMessageContentPartChatCompletionRequestMessageContentPartText

Informazioni sugli input di testo.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Il contenuto del testo.
digitare Enum La parte del tipo di contenuto.
Valori possibili: text

OpenAI.ChatCompletionRequestAssistantMessageContentPartType

Proprietà Valore
Digitare Stringa
Valori text
refusal

OpenAI.ChatCompletionRequestAssistantMessageFunctionCall

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa
Nome Stringa

OpenAI.ChatCompletionRequestDeveloperMessage

Istruzioni fornite dagli sviluppatori che il modello dovrebbe seguire, indipendentemente dai messaggi inviati dall'utente. Con i modelli O1 e quelli più recenti, developer i messaggi sostituiscono quelli precedenti system .

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto stringa o matrice di OpenAI.ChatCompletionRequestMessageContentPartText Il contenuto del messaggio dello sviluppatore.
Nome Stringa Un nome opzionale per il partecipante. Fornisce le informazioni sul modello per differenziare i partecipanti dello stesso ruolo. No
Ruolo Enum Il ruolo dell'autore dei messaggi, in questo caso developer.
Valori possibili: developer

OpenAI.ChatCompletionRequestFunctionMessage

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto stringa o null
Nome Stringa Il nome della funzione da chiamare.
Ruolo Enum Il ruolo dell'autore dei messaggi, in questo caso function.
Valori possibili: function

OpenAI.ChatCompletionRequestMessage

Discriminare per OpenAI.ChatCompletionRequestMessage

Questa componente utilizza la proprietà role per discriminare tra diversi tipi:

Valore del tipo Schema
assistant OpenAI.ChatCompletionRequestAssistantMessage
developer OpenAI.ChatCompletionRequestDeveloperMessage
function OpenAI.ChatCompletionRequestFunctionMessage
system OpenAI.ChatCompletionRequestSystemMessage
user OpenAI.ChatCompletionRequestUserMessage
tool OpenAI.ChatCompletionRequestToolMessage
Nome Digitare Descrizione Obbligatorio Predefinito
Ruolo OpenAI.ChatCompletionRequestMessageType

OpenAI.ChatCompletionRequestMessageContentPartAudio

Nome Digitare Descrizione Obbligatorio Predefinito
input_audio OpenAI.ChatCompletionRequestMessageContentPartAudioInputAudio
digitare Enum La parte del tipo di contenuto. Sempre input_audio.
Valori possibili: input_audio

OpenAI.ChatCompletionRequestMessageContentPartAudioInputAudio

Nome Digitare Descrizione Obbligatorio Predefinito
Dati Stringa
Formato Enum
Valori possibili: wav, mp3

OpenAI.ChatCompletionRequestMessageContentPartFile

Informazioni sugli input di file per la generazione di testo.

Nome Digitare Descrizione Obbligatorio Predefinito
File OpenAI.ChatCompletionRequestMessageContentPartFileFile
└file_data Stringa No
└file_id Stringa No
└> nome file Stringa No
digitare Enum La parte del tipo di contenuto. Sempre file.
Valori possibili: file

OpenAI.ChatCompletionRequestMessageContentPartFileFile

Nome Digitare Descrizione Obbligatorio Predefinito
file_data Stringa No
File_id Stringa No
Filename Stringa No

OpenAI.ChatCompletionRequestMessageContentPartImage

Nome Digitare Descrizione Obbligatorio Predefinito
image_url OpenAI.ChatCompletionRequestMessageContentPartImageUrl
digitare Enum La parte del tipo di contenuto.
Valori possibili: image_url

OpenAI.ChatCompletionRequestMessageContentPartImageUrl

Nome Digitare Descrizione Obbligatorio Predefinito
Dettaglio Enum
Valori possibili: auto, low, high
No
Url Stringa

OpenAI.ChatCompletionRequestMessageContentPartRefusal

Nome Digitare Descrizione Obbligatorio Predefinito
Rifiuto Stringa Il messaggio di rifiuto generato dal modello.
digitare Enum La parte del tipo di contenuto.
Valori possibili: refusal

OpenAI.ChatCompletionRequestMessageContentPartText

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Il contenuto del testo.
digitare Enum La parte del tipo di contenuto.
Valori possibili: text

OpenAI.ChatCompletionRequestMessageType

Proprietà Valore
Digitare Stringa
Valori developer
system
user
assistant
tool
function

OpenAI.ChatCompletionRequestSystemMessage

Istruzioni fornite dagli sviluppatori che il modello dovrebbe seguire, indipendentemente dai messaggi inviati dall'utente. Con i modelli o1 e versioni successive, usare developer invece i messaggi per questo scopo.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto stringa o matrice di OpenAI.ChatCompletionRequestSystemMessageContentPart Il contenuto del messaggio di sistema.
Nome Stringa Un nome opzionale per il partecipante. Fornisce le informazioni sul modello per differenziare i partecipanti dello stesso ruolo. No
Ruolo Enum Il ruolo dell'autore dei messaggi, in questo caso system.
Valori possibili: system

OpenAI.ChatCompletionRequestSystemMessageContentPart

Riferimenti: OpenAI.ChatCompletionRequestMessageContentPartText

OpenAI.ChatCompletionRequestToolMessage

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto stringa o matrice di OpenAI.ChatCompletionRequestToolMessageContentPart Il contenuto del messaggio dello strumento.
Ruolo Enum Il ruolo dell'autore dei messaggi, in questo caso tool.
Valori possibili: tool
tool_call_id Stringa Chiamata dello strumento a cui questo messaggio sta rispondendo.

OpenAI.ChatCompletionRequestToolMessageContentPart

Riferimenti: OpenAI.ChatCompletionRequestMessageContentPartText

OpenAI.ChatCompletionRequestUserMessage

Messaggi inviati da un utente finale, contenenti richieste o informazioni di contesto aggiuntive.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto stringa o matrice di OpenAI.ChatCompletionRequestUserMessageContentPart Il contenuto del messaggio utente.
Nome Stringa Un nome opzionale per il partecipante. Fornisce le informazioni sul modello per differenziare i partecipanti dello stesso ruolo. No
Ruolo Enum Il ruolo dell'autore dei messaggi, in questo caso user.
Valori possibili: user

OpenAI.ChatCompletionRequestUserMessageContentPart

Discriminare per OpenAI.ChatCompletionRequestUserMessageContentPart

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
image_url OpenAI.ChatCompletionRequestMessageContentPartImage
input_audio OpenAI.ChatCompletionRequestMessageContentPartAudio
file OpenAI.ChatCompletionRequestMessageContentPartFile
text OpenAI.ChatCompletionRequestUserMessageContentPartChatCompletionRequestMessageContentPartText
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.ChatCompletionRequestUserMessageContentPartType

OpenAI.ChatCompletionRequestUserMessageContentPartChatCompletionRequestMessageContentPartText

Informazioni sugli input di testo.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Il contenuto del testo.
digitare Enum La parte del tipo di contenuto.
Valori possibili: text

OpenAI.ChatCompletionRequestUserMessageContentPartType

Proprietà Valore
Digitare Stringa
Valori text
image_url
input_audio
file

OpenAI.ChatCompletionResponseMessage

Se viene richiesta la modalità di uscita audio, questo oggetto contiene dati sulla risposta audio dal modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Annotazioni matrice di OpenAI.ChatCompletionResponseMessageAnnotations Annotazioni per il messaggio, se applicabile, come quando si usa
strumento di ricerca Web.
No
Audio OpenAI.ChatCompletionResponseMessageAudio o null No
Contenuto stringa o null
function_call OpenAI.ChatCompletionResponseMessageFunctionCall No
Argomenti └* Stringa
└> nome Stringa
reasoning_content Stringa Proprietà di estensione specifica di Azure contenente contenuto di ragionamento generato dai modelli supportati. No
Rifiuto stringa o null
Ruolo Enum Il ruolo dell'autore di questo messaggio.
Valori possibili: assistant
tool_calls OpenAI.ChatCompletionMessageToolCallsItem Le chiamate degli strumenti generate dal modello, come le chiamate di funzione. No

OpenAI.ChatCompletionResponseMessageAnnotations

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum
Valori possibili: url_citation
url_citation OpenAI.ChatCompletionResponseMessageAnnotationsUrlCitation

OpenAI.ChatCompletionResponseMessageAnnotationsUrlCitation

Nome Digitare Descrizione Obbligatorio Predefinito
end_index Intero
start_index Intero
Titolo Stringa
Url Stringa

OpenAI.ChatCompletionResponseMessageAudio

Nome Digitare Descrizione Obbligatorio Predefinito
Dati Stringa
expires_at Intero
Id Stringa
Trascrizione Stringa

OpenAI.ChatCompletionResponseMessageFunctionCall

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa
Nome Stringa

OpenAI.ChatCompletionStreamOptions

Opzioni per la risposta allo streaming. Imposta questo solo quando imposti stream: true.

Nome Digitare Descrizione Obbligatorio Predefinito
include_obfuscation Boolean Se true, l'offuscamento del flusso verrà abilitato. Aggiunta dell'offuscamento del flusso
caratteri casuali in un obfuscation campo sugli eventi delta di streaming a
normalizzare le dimensioni del payload come mitigazione per determinati attacchi sul canale laterale.
Questi campi offuscamento sono inclusi per impostazione predefinita, ma aggiungono una piccola quantità
sovraccarico per il flusso di dati. È possibile impostare su include_obfuscation
false per ottimizzare la larghezza di banda se si considera attendibile il collegamento di rete tra
l'applicazione e l'API OpenAI.
No
include_usage Boolean Se impostato, un blocco aggiuntivo verrà trasmesso prima del data: [DONE]
Messaggio. Il usage campo in questo blocco mostra le statistiche di utilizzo dei token
per l'intera richiesta e il choices campo sarà sempre vuoto
Matrice.
Tutti gli altri blocchi includeranno anche un usage campo, ma con un valore Null
Valore. NOTA: Se il flusso viene interrotto, è possibile che non venga ricevuto
blocco di utilizzo finale che contiene l'utilizzo totale dei token per la richiesta.
No

OpenAI.ChatCompletionStreamResponseDelta

Un delta di completamento della chat generato dalle risposte del modello in streaming.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto stringa o null No
function_call OpenAI.ChatCompletionStreamResponseDeltaFunctionCall No
Argomenti └* Stringa No
└> nome Stringa No
reasoning_content Stringa Proprietà di estensione specifica di Azure contenente contenuto di ragionamento generato dai modelli supportati. No
Rifiuto stringa o null No
Ruolo Enum Il ruolo dell'autore di questo messaggio.
Valori possibili: developer, system, user, assistant, tool
No
tool_calls matrice di OpenAI.ChatCompletionMessageToolCallChunk No

OpenAI.ChatCompletionStreamResponseDeltaFunctionCall

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa No
Nome Stringa No

OpenAI.ChatCompletionTokenLogprob

Nome Digitare Descrizione Obbligatorio Predefinito
Byte matrice di numeri interi o null
logprob Numero La probabilità logaritmica di questo token, se si trova tra i primi 20 token più probabili. Altrimenti, il valore -9999.0 viene usato per indicare che il token è molto improbabile.
Token Stringa Token.
top_logprobs matrice di OpenAI.ChatCompletionTokenLogprobTopLogprobs Elenco dei token più probabili e della loro probabilità logarithmita, in questa posizione del token. In rari casi, potrebbero esserci meno del numero di richieste top_logprobs restituite.

OpenAI.ChatCompletionTokenLogprobTopLogprobs

Nome Digitare Descrizione Obbligatorio Predefinito
Byte matrice di numeri interi o null
logprob Numero
Token Stringa

OpenAI.ChatCompletionTool

Strumento di funzione che può essere usato per generare una risposta.

Nome Digitare Descrizione Obbligatorio Predefinito
Funzione OpenAI.FunctionObject
digitare Enum Il tipo di attrezzo. Attualmente, solo function è supportato.
Valori possibili: function

OpenAI.ChatCompletionToolChoiceOption

Controlla quale (se presente) strumento viene chiamato dal modello. none significa che il modello non chiamerà nessuno strumento ma genera invece un messaggio. auto significa che il modello può scegliere tra generare un messaggio o chiamare uno o più strumenti. required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento particolare tramite {"type": "function", "function": {"name": "my_function"}} costringe il modello a chiamare quello strumento. none è il valore predefinito quando non ci sono strumenti presenti. auto è la norma se sono presenti strumenti.

Tipo: string o OpenAI.ChatCompletionAllowedToolsChoice o OpenAI.ChatCompletionNamedToolChoice o OpenAI.ChatCompletionNamedToolChoiceCustom

Controlla quale (se presente) strumento viene chiamato dal modello. none significa che il modello non chiamerà nessuno strumento ma genera invece un messaggio. auto significa che il modello può scegliere tra generare un messaggio o chiamare uno o più strumenti. required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento particolare tramite {"type": "function", "function": {"name": "my_function"}} costringe il modello a chiamare quello strumento. none è il valore predefinito quando non ci sono strumenti presenti. auto è la norma se sono presenti strumenti.

OpenAI.ChunkingStrategyRequestParam

La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . Applicabile solo se file_ids non è vuoto.

Discriminante per OpenAI.ChunkingStrategyRequestParam

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
auto OpenAI.AutoChunkingStrategyRequestParam
static OpenAI.StaticChunkingStrategyRequestParam
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.ChunkingStrategyRequestParamType

OpenAI.ChunkingStrategyRequestParamType

Proprietà Valore
Digitare Stringa
Valori auto
static

OpenAI.ChunkingStrategyResponse

Strategia usata per suddividere il file.

Discriminante per OpenAI.ChunkingStrategyResponse

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
static OpenAI.StaticChunkingStrategyResponseParam
other OpenAI.OtherChunkingStrategyResponseParam
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.ChunkingStrategyResponseType

OpenAI.ChunkingStrategyResponseType

Proprietà Valore
Digitare Stringa
Valori static
other

OpenAI.ClickButtonType

Proprietà Valore
Digitare Stringa
Valori left
right
wheel
back
forward

OpenAI.ClickParam

Un'azione di clic.

Nome Digitare Descrizione Obbligatorio Predefinito
Pulsante OpenAI.ClickButtonType
digitare Enum Specifica il tipo di evento. Per un'azione di clic, questa proprietà è sempre click.
Valori possibili: click
X Intero La coordinata x dove si è verificato il clic.
Y Intero La coordinata y in cui si è verificato il clic.

OpenAI.CodeInterpreterContainerAuto

Configurazione per un contenitore dell'interprete di codice. Facoltativamente, specificare gli ID dei file in cui eseguire il codice.

Nome Digitare Descrizione Obbligatorio Predefinito
file_ids matrice di stringhe Elenco facoltativo di file caricati da rendere disponibile per il codice. No
memory_limit OpenAI.ContainerMemoryLimit o null No
digitare Enum Sempre auto.
Valori possibili: auto

OpenAI.CodeInterpreterOutputImage

Output dell'immagine dell'interprete di codice.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Tipo dell'output. Sempre image.
Valori possibili: image
Url Stringa URL dell'output dell'immagine dall'interprete di codice.

OpenAI.CodeInterpreterOutputLogs

Output dei log dall'interprete di codice.

Nome Digitare Descrizione Obbligatorio Predefinito
Registri Stringa Output dei log dall'interprete di codice.
digitare Enum Tipo dell'output. Sempre logs.
Valori possibili: logs

OpenAI.CodeInterpreterTool

Strumento che esegue codice Python per generare una risposta a un prompt.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenitore string o OpenAI.CodeInterpreterContainerAuto Contenitore dell'interprete di codice. Può essere un ID contenitore o un oggetto che
specifica gli ID file caricati per rendere disponibile il codice, insieme a un
impostazione facoltativa memory_limit .
digitare Enum Il tipo di strumento di interprete di codice. Sempre code_interpreter.
Valori possibili: code_interpreter

OpenAI.ComparisonFilter

Un filtro usato per confrontare una chiave di attributo specificata con un dato valore utilizzando un'operazione di confronto definita.

Nome Digitare Descrizione Obbligatorio Predefinito
Chiave Stringa La chiave è confrontare con il valore.
digitare Enum Specifica l'operatore di confronto: eq, negt, gte, , ltlte, innin.
- eq: uguale
- ne: non uguale
- gt: maggiore di
- gte: maggiore o uguale
- lt: meno di
- lte: minore o uguale
- in:Pollici
- nin: non in
Valori possibili: eq, ne, gt, gte, lt, lte
Valore stringa o numero o matrice booleana o di OpenAI.ComparisonFilterValueItems Il valore da confrontare con la chiave di attributi; supporta tipi di stringa, numero o booleani.

OpenAI.ComparisonFilterValueItems

Questo schema accetta uno dei tipi seguenti:

  • Stringa
  • Numero

OpenAI.CompletionUsage

Statistiche di utilizzo per la richiesta di completamento.

Nome Digitare Descrizione Obbligatorio Predefinito
completion_tokens Intero Numero di gettoni nel completamento generato.
completion_tokens_details OpenAI.CompletionUsageCompletionTokensDetails No
└accepted_prediction_tokens Intero No
└audio_tokens Intero No
└reasoning_tokens Intero No
└rejected_prediction_tokens Intero No
prompt_tokens Intero Numero di gettoni nel prompt.
prompt_tokens_details OpenAI.CompletionUsagePromptTokensDetails No
└audio_tokens Intero No
└cached_tokens Intero No
total_tokens Intero Numero totale di token utilizzati nella richiesta (prompt + completamento).

OpenAI.CompletionUsageCompletionTokensDetails

Nome Digitare Descrizione Obbligatorio Predefinito
accepted_prediction_tokens Intero No
audio_tokens Intero No
reasoning_tokens Intero No
rejected_prediction_tokens Intero No

OpenAI.CompletionUsagePromptTokensDetails

Nome Digitare Descrizione Obbligatorio Predefinito
audio_tokens Intero No
cached_tokens Intero No

OpenAI.CompoundFilter

Combina più filtri usando and o or.

Nome Digitare Descrizione Obbligatorio Predefinito
Filtri matrice di oggetto o OpenAI.ComparisonFilter Array di filtri da combinare. Gli oggetti possono essere ComparisonFilter oppure CompoundFilter.
digitare Enum Tipo di operazione: and oppure or.
Valori possibili: and, or

OpenAI.ComputerAction

Discriminare per OpenAI.ComputerAction

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
click OpenAI.ClickParam
double_click OpenAI.DoubleClickAction
drag OpenAI.Drag
keypress OpenAI.KeyPressAction
move OpenAI.Move
screenshot OpenAI.Screenshot
scroll OpenAI.Scroll
type OpenAI.Type
wait OpenAI.Wait
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.ComputerActionType

OpenAI.ComputerActionType

Proprietà Valore
Digitare Stringa
Valori click
double_click
drag
keypress
move
screenshot
scroll
type
wait

OpenAI.ComputerCallSafetyCheckParam

Un controllo di sicurezza in attesa per la chiamata al computer.

Nome Digitare Descrizione Obbligatorio Predefinito
Codice stringa o null No
Id Stringa L'ID del controllo di sicurezza in corso.
Messaggio stringa o null No

OpenAI.ComputerEnvironment

Proprietà Valore
Digitare Stringa
Valori windows
mac
linux
ubuntu
browser

OpenAI.ComputerScreenshotContent

Screenshot di un computer.

Nome Digitare Descrizione Obbligatorio Predefinito
File_id stringa o null
image_url stringa o null
digitare Enum Specifica il tipo di evento. Per uno screenshot del computer, questa proprietà è sempre impostata su computer_screenshot.
Valori possibili: computer_screenshot

OpenAI.ComputerScreenshotImage

Un'immagine screenshot del computer usata con lo strumento di uso del computer.

Nome Digitare Descrizione Obbligatorio Predefinito
File_id Stringa L'identificatore di un file caricato che contiene lo screenshot. No
image_url Stringa L'URL dell'immagine dello screenshot. No
digitare Enum Specifica il tipo di evento. Per uno screenshot del computer, questa proprietà è
sempre impostato su computer_screenshot.
Valori possibili: computer_screenshot

OpenAI.ComputerUsePreviewTool

Uno strumento che controlla un computer virtuale.

Nome Digitare Descrizione Obbligatorio Predefinito
display_height Intero L'altezza del display del computer.
display_width Intero La larghezza del display del computer.
Ambiente OpenAI.ComputerEnvironment
digitare Enum Il tipo di strumento per l'uso del computer. Sempre computer_use_preview.
Valori possibili: computer_use_preview

OpenAI.ContainerFileCitationBody

Citazione per un file di contenitore usato per generare una risposta del modello.

Nome Digitare Descrizione Obbligatorio Predefinito
container_id Stringa ID del file contenitore.
end_index Intero Indice dell'ultimo carattere della citazione del file contenitore nel messaggio.
File_id Stringa L'ID del fascicolo.
Filename Stringa Nome file del file contenitore citato.
start_index Intero Indice del primo carattere della citazione del file contenitore nel messaggio.
digitare Enum Tipo di citazione del file contenitore. Sempre container_file_citation.
Valori possibili: container_file_citation

OpenAI.ContainerFileListResource

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.ContainerFileResource Elenco di file del contenitore.
first_id Stringa ID del primo file nell'elenco.
has_more Boolean Indica se sono disponibili altri file.
last_id Stringa ID dell'ultimo file nell'elenco.
Oggetto Enum Il tipo di oggetto restituito deve essere 'list'.
Valori possibili: list

OpenAI.ContainerFileResource

Nome Digitare Descrizione Obbligatorio Predefinito
Byte Intero Dimensioni del file in byte.
container_id Stringa Il contenitore a cui appartiene questo file.
created_at Intero Timestamp Unix (in secondi) al momento della creazione del file.
Id Stringa Identificatore univoco per il file.
Oggetto Enum Tipo di questo oggetto (container.file).
Valori possibili: container.file
Percorso Stringa Percorso del file nel contenitore.
fonte Stringa Origine del file ( ad esempio , user). assistant

OpenAI.ContainerListResource

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.ContainerResource Elenco di contenitori.
first_id Stringa ID del primo contenitore nell'elenco.
has_more Boolean Indica se sono disponibili altri contenitori.
last_id Stringa ID dell'ultimo contenitore nell'elenco.
Oggetto Enum Il tipo di oggetto restituito deve essere 'list'.
Valori possibili: list

OpenAI.ContainerMemoryLimit

Proprietà Valore
Digitare Stringa
Valori 1g
4g
16g
64g

OpenAI.ContainerResource

Nome Digitare Descrizione Obbligatorio Predefinito
created_at Intero Timestamp Unix (in secondi) al momento della creazione del contenitore.
expires_after OpenAI.ContainerResourceExpiresAfter No
Ancoraggio └* Enum
Valori possibili: last_active_at
No
└* minuti Intero No
Id Stringa Identificatore univoco per il contenitore.
last_active_at Intero Timestamp Unix (in secondi) quando il contenitore è stato attivo per l'ultima volta. No
memory_limit Enum Limite di memoria configurato per il contenitore.
Valori possibili: 1g, 4g, 16g, 64g
No
Nome Stringa Nome del contenitore.
Oggetto Stringa Il tipo di questo oggetto.
Stato Stringa Stato del contenitore(ad esempio, attivo, eliminato).

OpenAI.ContainerResourceExpiresAfter

Nome Digitare Descrizione Obbligatorio Predefinito
ancora Enum
Valori possibili: last_active_at
No
Minuti Intero No

OpenAI.ConversationItem

Un singolo elemento all'interno di una conversazione. Il set di tipi possibili è uguale al output tipo di un oggetto Response.

Discriminare per OpenAI.ConversationItem

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
message OpenAI.ConversationItemMessage
function_call OpenAI.ConversationItemFunctionToolCallResource
function_call_output OpenAI.ConversationItemFunctionToolCallOutputResource
file_search_call OpenAI.ConversationItemFileSearchToolCall
web_search_call OpenAI.ConversationItemWebSearchToolCall
image_generation_call OpenAI.ConversationItemImageGenToolCall
computer_call OpenAI.ConversationItemComputerToolCall
computer_call_output OpenAI.ConversationItemComputerToolCallOutputResource
reasoning OpenAI.ConversationItemReasoningItem
code_interpreter_call OpenAI.ConversationItemCodeInterpreterToolCall
local_shell_call OpenAI.ConversationItemLocalShellToolCall
local_shell_call_output OpenAI.ConversationItemLocalShellToolCallOutput
shell_call OpenAI.ConversationItemFunctionShellCall
shell_call_output OpenAI.ConversationItemFunctionShellCallOutput
apply_patch_call OpenAI.ConversationItemApplyPatchToolCall
apply_patch_call_output OpenAI.ConversationItemApplyPatchToolCallOutput
mcp_list_tools OpenAI.ConversationItemMcpListTools
mcp_approval_request OpenAI.ConversationItemMcpApprovalRequest
mcp_approval_response OpenAI.ConversationItemMcpApprovalResponseResource
mcp_call OpenAI.ConversationItemMcpToolCall
custom_tool_call OpenAI.ConversationItemCustomToolCall
custom_tool_call_output OpenAI.ConversationItemCustomToolCallOutput
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.ConversationItemType

OpenAI.ConversationItemApplyPatchToolCall

Chiamata dello strumento che applica differenze di file creando, eliminando o aggiornando i file.

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa ID univoco della chiamata dello strumento applica patch generata dal modello.
created_by Stringa ID dell'entità che ha creato questa chiamata allo strumento. No
Id Stringa ID univoco della chiamata dello strumento apply patch. Popolata quando questo elemento viene restituito tramite API.
Operazione OpenAI.ApplyPatchFileOperation Una delle operazioni di create_file, delete_file o update_file applicate tramite apply_patch.
Tipo └* OpenAI.ApplyPatchFileOperationType
Stato OpenAI.ApplyPatchCallStatus
digitare Enum Tipo dell'elemento. Sempre apply_patch_call.
Valori possibili: apply_patch_call

OpenAI.ConversationItemApplyPatchToolCallOutput

Output generato da una chiamata di applicazione dello strumento patch.

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa ID univoco della chiamata dello strumento applica patch generata dal modello.
created_by Stringa ID dell'entità che ha creato l'output della chiamata dello strumento. No
Id Stringa ID univoco dell'output della chiamata dello strumento patch apply. Popolata quando questo elemento viene restituito tramite API.
Output stringa o null No
Stato OpenAI.ApplyPatchCallOutputStatus
digitare Enum Tipo dell'elemento. Sempre apply_patch_call_output.
Valori possibili: apply_patch_call_output

OpenAI.ConversationItemCodeInterpreterToolCall

Una chiamata a uno strumento per eseguire codice.

Nome Digitare Descrizione Obbligatorio Predefinito
Codice stringa o null
container_id Stringa ID del contenitore usato per eseguire il codice.
Id Stringa L'ID univoco dello strumento interprete del codice chiama.
Uscite matrice di OpenAI.CodeInterpreterOutputLogs o OpenAI.CodeInterpreterOutputImage o null
Stato Enum Lo stato dello strumento di interprete del codice chiamato. I valori validi sono in_progress, completedincomplete, interpreting, e failed.
Valori possibili: in_progress, completed, incomplete, interpreting, failed
digitare Enum Il tipo che chiama lo strumento dell'interprete del codice. Sempre code_interpreter_call.
Valori possibili: code_interpreter_call

OpenAI.ConversationItemComputerToolCall

Un richiamo a uno strumento per l'uso del computer. Per altre informazioni, vedere la guida all'uso del computer .

Nome Digitare Descrizione Obbligatorio Predefinito
Azione OpenAI.ComputerAction
call_id Stringa Un identificatore usato quando si risponde alla chiamata dello strumento con output.
Id Stringa L'ID unico della chiamata computerizzata.
pending_safety_checks matrice di OpenAI.ComputerCallSafetyCheckParam I controlli di sicurezza in attesa per la chiamata al computer.
Stato Enum Lo stato dell'oggetto. Uno di in_progress, completedo
incomplete. Popolati quando gli elementi vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
digitare Enum Il tipo di chiamata al computer. Sempre computer_call.
Valori possibili: computer_call

OpenAI.ConversationItemComputerToolCallOutputResource

Nome Digitare Descrizione Obbligatorio Predefinito
acknowledged_safety_checks matrice di OpenAI.ComputerCallSafetyCheckParam I controlli di sicurezza segnalati dall'API che sono stati riconosciuti dal
Sviluppatore.
No
call_id Stringa L'ID della chiamata dello strumento informatico che ha prodotto l'output.
Id Stringa L'ID dell'output della chiamata dello strumento informatico. No
Output OpenAI.ComputerScreenshotImage Un'immagine screenshot del computer usata con lo strumento di uso del computer.
Stato Enum Lo stato del messaggio inserito. Uno di in_progress, completedo
incomplete. Popolati quando gli input input vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
No
digitare Enum Il tipo di output della chiamata dello strumento informatico. Sempre computer_call_output.
Valori possibili: computer_call_output

OpenAI.ConversationItemCustomToolCall

Chiamata a uno strumento personalizzato creato dal modello.

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa Identificatore usato per eseguire il mapping di questa chiamata personalizzata a un output di chiamata dello strumento.
Id Stringa ID univoco della chiamata dello strumento personalizzato nella piattaforma OpenAI. No
Input Stringa Input per la chiamata personalizzata dello strumento generata dal modello.
Nome Stringa Nome dello strumento personalizzato chiamato.
digitare Enum Tipo di chiamata allo strumento personalizzato. Sempre custom_tool_call.
Valori possibili: custom_tool_call

OpenAI.ConversationItemCustomToolCallOutput

L'output di una chiamata personalizzata dello strumento dal codice, che viene inviato al modello.

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa ID chiamata, usato per eseguire il mapping dell'output della chiamata di questo strumento personalizzato a una chiamata di strumento personalizzata.
Id Stringa ID univoco dell'output delle chiamate dello strumento personalizzato nella piattaforma OpenAI. No
Output stringa o matrice di OpenAI.FunctionAndCustomToolCallOutput Output della chiamata dello strumento personalizzato generata dal codice.
Può essere una stringa o un elenco di contenuto di output.
digitare Enum Tipo dell'output delle chiamate dello strumento personalizzato. Sempre custom_tool_call_output.
Valori possibili: custom_tool_call_output

OpenAI.ConversationItemFileSearchToolCall

I risultati di uno strumento di ricerca file chiamano. Per altre informazioni, vedere la guida alla ricerca di file .

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa L'ID univoco dello strumento di ricerca file chiama.
Query matrice di stringhe Le query usate per cercare file.
Risultati matrice di OpenAI.FileSearchToolCallResults o null No
Stato Enum Lo stato dello strumento di ricerca file chiamato. Uno di in_progress,
searching, incomplete o failed,
Valori possibili: in_progress, searching, completed, incomplete, failed
digitare Enum Il tipo di chiamata dello strumento di ricerca file. Sempre file_search_call.
Valori possibili: file_search_call

OpenAI.ConversationItemFunctionShellCall

Chiamata dello strumento che esegue uno o più comandi della shell in un ambiente gestito.

Nome Digitare Descrizione Obbligatorio Predefinito
Azione OpenAI.FunctionShellAction Eseguire un comando shell.
Comandi └* matrice di stringhe
└max_output_length integer o null
└timeout_ms integer o null
call_id Stringa ID univoco della chiamata dello strumento shell generata dal modello.
created_by Stringa ID dell'entità che ha creato questa chiamata allo strumento. No
Id Stringa ID univoco della chiamata dello strumento shell. Popolata quando questo elemento viene restituito tramite API.
Stato OpenAI.LocalShellCallStatus
digitare Enum Tipo dell'elemento. Sempre shell_call.
Valori possibili: shell_call

OpenAI.ConversationItemFunctionShellCallOutput

Output di una chiamata dello strumento shell generata.

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa ID univoco della chiamata dello strumento shell generata dal modello.
created_by Stringa Identificatore dell'attore che ha creato l'elemento. No
Id Stringa ID univoco dell'output della chiamata della shell. Popolata quando questo elemento viene restituito tramite API.
max_output_length integer o null
Output matrice di OpenAI.FunctionShellCallOutputContent Matrice di contenuti di output delle chiamate shell
digitare Enum Tipo dell'output delle chiamate della shell. Sempre shell_call_output.
Valori possibili: shell_call_output

OpenAI.ConversationItemFunctionToolCallOutputResource

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa L'ID univoco della chiamata dello strumento funzionale generata dal modello.
Id Stringa L'ID unico dell'output della chiamata dello strumento funzionale. Popolato quando questo elemento
viene restituito tramite l'API.
No
Output stringa o matrice di OpenAI.FunctionAndCustomToolCallOutput Output della chiamata di funzione generata dal codice.
Può essere una stringa o un elenco di contenuto di output.
Stato Enum Lo stato dell'oggetto. Uno di in_progress, completedo
incomplete. Popolati quando gli elementi vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
No
digitare Enum Il tipo di funzione chiama output dello strumento. Sempre function_call_output.
Valori possibili: function_call_output

OpenAI.ConversationItemFunctionToolCallResource

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa Una stringa JSON degli argomenti da passare alla funzione.
call_id Stringa L'ID univoco della chiamata dello strumento funzionale generata dal modello.
Id Stringa L'ID univoco dello strumento di funzione chiama. No
Nome Stringa Il nome della funzione da eseguire.
Stato Enum Lo stato dell'oggetto. Uno di in_progress, completedo
incomplete. Popolati quando gli elementi vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
No
digitare Enum Il tipo di chiamata dello strumento funzionale. Sempre function_call.
Valori possibili: function_call

OpenAI.ConversationItemImageGenToolCall

Richiesta di generazione di immagini effettuata dal modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa ID univoco della chiamata di generazione dell'immagine.
Risultato stringa o null
Stato Enum Stato della chiamata di generazione dell'immagine.
Valori possibili: in_progress, completed, generating, failed
digitare Enum Tipo della chiamata di generazione dell'immagine. Sempre image_generation_call.
Valori possibili: image_generation_call

OpenAI.ConversationItemList

Elenco di elementi di conversazione.

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.ConversationItem Elenco di elementi della conversazione.
first_id Stringa L'ID del primo elemento della lista.
has_more Boolean Se ci sono altri articoli disponibili.
last_id Stringa L'ID dell'ultimo elemento della lista.
Oggetto Enum Il tipo di oggetto restituito deve essere list.
Valori possibili: list

OpenAI.ConversationItemLocalShellToolCall

Chiamata dello strumento per eseguire un comando nella shell locale.

Nome Digitare Descrizione Obbligatorio Predefinito
Azione OpenAI.LocalShellExecAction Eseguire un comando shell nel server.
call_id Stringa ID univoco della chiamata dello strumento shell locale generata dal modello.
Id Stringa ID univoco della chiamata della shell locale.
Stato Enum Stato della chiamata della shell locale.
Valori possibili: in_progress, completed, incomplete
digitare Enum Tipo di chiamata della shell locale. Sempre local_shell_call.
Valori possibili: local_shell_call

OpenAI.ConversationItemLocalShellToolCallOutput

Output di una chiamata allo strumento shell locale.

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa ID univoco della chiamata dello strumento shell locale generata dal modello.
Output Stringa Stringa JSON dell'output della chiamata allo strumento shell locale.
Stato stringa o null No
digitare Enum Tipo dell'output delle chiamate dello strumento shell locale. Sempre local_shell_call_output.
Valori possibili: local_shell_call_output

OpenAI.ConversationItemMcpApprovalRequest

Richiesta di approvazione umana di una chiamata a uno strumento.

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa Stringa JSON di argomenti per lo strumento.
Id Stringa ID univoco della richiesta di approvazione.
Nome Stringa Nome dello strumento da eseguire.
server_label Stringa Etichetta del server MCP che effettua la richiesta.
digitare Enum Tipo dell'elemento. Sempre mcp_approval_request.
Valori possibili: mcp_approval_request

OpenAI.ConversationItemMcpApprovalResponseResource

Risposta a una richiesta di approvazione MCP.

Nome Digitare Descrizione Obbligatorio Predefinito
approval_request_id Stringa ID della richiesta di approvazione a cui viene inviata la risposta.
Approvare Boolean Indica se la richiesta è stata approvata.
Id Stringa ID univoco della risposta di approvazione
Motivo stringa o null No
digitare Enum Tipo dell'elemento. Sempre mcp_approval_response.
Valori possibili: mcp_approval_response

OpenAI.ConversationItemMcpListTools

Elenco di strumenti disponibili in un server MCP.

Nome Digitare Descrizione Obbligatorio Predefinito
Errore stringa o null No
Id Stringa ID univoco dell'elenco.
server_label Stringa Etichetta del server MCP.
Strumenti matrice di OpenAI.MCPListToolsTool Strumenti disponibili nel server.
digitare Enum Tipo dell'elemento. Sempre mcp_list_tools.
Valori possibili: mcp_list_tools

OpenAI.ConversationItemMcpToolCall

Chiamata di uno strumento in un server MCP.

Nome Digitare Descrizione Obbligatorio Predefinito
approval_request_id stringa o null No
Argomenti Stringa Stringa JSON degli argomenti passati allo strumento.
Errore stringa o null No
Id Stringa ID univoco della chiamata allo strumento.
Nome Stringa Nome dello strumento eseguito.
Output stringa o null No
server_label Stringa Etichetta del server MCP che esegue lo strumento.
Stato OpenAI.MCPToolCallStatus No
digitare Enum Tipo dell'elemento. Sempre mcp_call.
Valori possibili: mcp_call

OpenAI.ConversationItemMessage

Messaggio da o verso il modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto matrice di OpenAI.InputTextContent o OpenAI.OutputTextContent o OpenAI.TextContent o OpenAI.SummaryTextContent o OpenAI.ReasoningTextContent o OpenAI.RefusalContent o OpenAI.InputImageContent o OpenAI.ComputerScreenshotContent o OpenAI.InputFileContent Contenuto del messaggio
Id Stringa ID univoco del messaggio.
Ruolo OpenAI.MessageRole
Stato OpenAI.MessageStatus
digitare Enum Tipo del messaggio. Imposta sempre su message.
Valori possibili: message

OpenAI.ConversationItemReasoningItem

Una descrizione della catena di pensiero utilizzata da un modello di ragionamento durante la generazione di una risposta. Assicurarsi di includere questi elementi nell'API input Risposte per i turni successivi di una conversazione se si gestisce manualmente il contesto.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto matrice di OpenAI.ReasoningTextContent Ragionamento del contenuto del testo. No
encrypted_content stringa o null No
Id Stringa L'identificatore unico del contenuto di ragionamento.
Stato Enum Lo stato dell'oggetto. Uno di in_progress, completedo
incomplete. Popolati quando gli elementi vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
No
Riepilogo matrice di OpenAI.Summary Ragionamento del contenuto di riepilogo.
digitare Enum Il tipo di oggetto. Sempre reasoning.
Valori possibili: reasoning

OpenAI.ConversationItemType

Proprietà Valore
Digitare Stringa
Valori message
function_call
function_call_output
file_search_call
web_search_call
image_generation_call
computer_call
computer_call_output
reasoning
code_interpreter_call
local_shell_call
local_shell_call_output
shell_call
shell_call_output
apply_patch_call
apply_patch_call_output
mcp_list_tools
mcp_approval_request
mcp_approval_response
mcp_call
custom_tool_call
custom_tool_call_output

OpenAI.ConversationItemWebSearchToolCall

Risultati di una chiamata allo strumento di ricerca Web. Per altre informazioni, vedere la guida alla ricerca Web .

Nome Digitare Descrizione Obbligatorio Predefinito
Azione OpenAI.WebSearchActionSearch o OpenAI.WebSearchActionOpenPage o OpenAI.WebSearchActionFind Oggetto che descrive l'azione specifica eseguita in questa chiamata di ricerca Web.
Include informazioni dettagliate sul modo in cui il modello ha usato il Web (ricerca, open_page, ricerca).
Id Stringa ID univoco della chiamata dello strumento di ricerca Web.
Stato Enum Stato della chiamata dello strumento di ricerca Web.
Valori possibili: in_progress, searching, completed, failed
digitare Enum Tipo di chiamata dello strumento di ricerca Web. Sempre web_search_call.
Valori possibili: web_search_call

OpenAI.ConversationParam

Conversazione a cui appartiene questa risposta. Gli elementi di questa conversazione vengono anteporti a input_items per questa richiesta di risposta. Gli elementi di input e gli elementi di output di questa risposta vengono aggiunti automaticamente a questa conversazione al termine della risposta.

Tipo: string o OpenAI.ConversationParam-2

Conversazione a cui appartiene questa risposta. Gli elementi di questa conversazione vengono anteporti a input_items per questa richiesta di risposta. Gli elementi di input e gli elementi di output di questa risposta vengono aggiunti automaticamente a questa conversazione al termine della risposta.

OpenAI.ConversationParam-2

Conversazione a cui appartiene questa risposta.

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa ID univoco della conversazione.

OpenAI.ConversationReference

Conversazione a cui appartiene questa risposta. Gli elementi di input e gli elementi di output di questa risposta sono stati aggiunti automaticamente a questa conversazione.

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa ID univoco della conversazione a cui è stata associata la risposta.

OpenAI.ConversationResource

Nome Digitare Descrizione Obbligatorio Predefinito
created_at Intero Ora in cui è stata creata la conversazione, misurata in secondi dall'epoca Unix.
Id Stringa ID univoco della conversazione.
Metadati Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard.
I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri.
Oggetto Enum Il tipo di oggetto, che è sempre conversation.
Valori possibili: conversation

OpenAI.CreateChatCompletionRequestAudio

Nome Digitare Descrizione Obbligatorio Predefinito
Formato Enum
Valori possibili: wav, aac, mp3, flac, opus, pcm16
Voce OpenAI.VoiceIdsShared

OpenAI.CreateChatCompletionRequestResponseFormat

Un oggetto che specifica il formato che il modello deve generare. L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati. Impostando per { "type": "json_object" } abilita la vecchia modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferito per i modelli che lo supportano.

Discriminare per OpenAI.CreateChatCompletionRequestResponseFormat

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
json_schema OpenAI.ResponseFormatJsonSchema
text OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatText
json_object OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatJsonObject
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.CreateChatCompletionRequestResponseFormatType

OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatJsonObject

Formato della risposta dell'oggetto JSON. Metodo precedente di generazione di risposte JSON. L'uso json_schema di è consigliato per i modelli che lo supportano. Si noti che il modello non genererà JSON senza un messaggio di sistema o utente che indica a tale scopo.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Il tipo di formato di risposta da definire. Sempre json_object.
Valori possibili: json_object

OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatText

Formato di risposta predefinito. Usato per generare risposte di testo.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Il tipo di formato di risposta da definire. Sempre text.
Valori possibili: text

OpenAI.CreateChatCompletionRequestResponseFormatType

Proprietà Valore
Digitare Stringa
Valori text
json_schema
json_object

OpenAI.CreateChatCompletionResponseChoices

Nome Digitare Descrizione Obbligatorio Predefinito
content_filter_results AzureContentFilterResultForChoice Risultato di un filtro contenuto per un singolo elemento di risposta prodotto da un sistema di intelligenza artificiale generativo. No
finish_reason Enum
Valori possibili: stop, length, tool_calls, content_filter, function_call
Indice Intero
logprobs OpenAI.CreateChatCompletionResponseChoicesLogprobs o null
Messaggio OpenAI.ChatCompletionResponseMessage Se viene richiesta la modalità di output audio, questo oggetto contiene dati
sulla risposta audio del modello.

OpenAI.CreateChatCompletionResponseChoicesLogprobs

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto matrice di OpenAI.ChatCompletionTokenLogprob o null
Rifiuto matrice di OpenAI.ChatCompletionTokenLogprob o null

OpenAI.CreateChatCompletionStreamResponseChoices

Nome Digitare Descrizione Obbligatorio Predefinito
Delta OpenAI.ChatCompletionStreamResponseDelta Un delta di completamento della chat generato dalle risposte del modello in streaming.
finish_reason stringa o null
Indice Intero
logprobs OpenAI.CreateChatCompletionStreamResponseChoicesLogprobs o null No

OpenAI.CreateChatCompletionStreamResponseChoicesLogprobs

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto matrice di OpenAI.ChatCompletionTokenLogprob o null
Rifiuto matrice di OpenAI.ChatCompletionTokenLogprob o null

OpenAI.CreateCompletionResponseChoices

Nome Digitare Descrizione Obbligatorio Predefinito
content_filter_results AzureContentFilterResultForChoice Risultato di un filtro contenuto per un singolo elemento di risposta prodotto da un sistema di intelligenza artificiale generativo. No
finish_reason Enum
Valori possibili: stop, length, content_filter
Indice Intero
logprobs OpenAI.CreateCompletionResponseChoicesLogprobs o null
Testo Stringa

OpenAI.CreateCompletionResponseChoicesLogprobs

Nome Digitare Descrizione Obbligatorio Predefinito
text_offset matrice di numeri interi No
token_logprobs matrice di numeri No
Token matrice di stringhe No
top_logprobs matrice di oggetti No

OpenAI.CreateContainerBody

Nome Digitare Descrizione Obbligatorio Predefinito
expires_after OpenAI.CreateContainerBodyExpiresAfter No
Ancoraggio └* Enum
Valori possibili: last_active_at
└* minuti Intero
file_ids matrice di stringhe ID di file da copiare nel contenitore. No
memory_limit Enum Limite di memoria facoltativo per il contenitore. Il valore predefinito è "1g".
Valori possibili: 1g, 4g, 16g, 64g
No
Nome Stringa Nome del contenitore da creare.

OpenAI.CreateContainerBodyExpiresAfter

Nome Digitare Descrizione Obbligatorio Predefinito
ancora Enum
Valori possibili: last_active_at
Minuti Intero

OpenAI.CreateContainerFileBody

Nome Digitare Descrizione Obbligatorio Predefinito
File Oggetto File (non nome file) da caricare. No
File_id Stringa Nome del file da creare. No

OpenAI.CreateConversationBody

Nome Digitare Descrizione Obbligatorio Predefinito
Elementi matrice di OpenAI.InputItem o null No
Metadati OpenAI.Metadata o Null No

OpenAI.CreateConversationItemsParametersBody

Nome Digitare Descrizione Obbligatorio Predefinito
Elementi matrice di OpenAI.InputItem

OpenAI.CreateEmbeddingRequest

Nome Digitare Descrizione Obbligatorio Predefinito
Dimensioni Intero Il numero di dimensioni che dovrebbero avere gli embedding di output risultanti. Supportato solo nei text-embedding-3 modelli e nei modelli successivi.
Vincoli: min: 1
No
encoding_format Enum Il formato per restituire gli embedding. Può essere uno o floatl'altro base64 o .
Valori possibili: float, base64
No
Input stringa o matrice di stringhe o matrice di numeri interi o matrice di matrice Input text da incorporare, codificato come stringa o array di token. Per incorporare più input in una singola richiesta, passa un array di stringhe o array di token. L'input non deve superare i token di input massimi per il modello (8.192 token per tutti i modelli di incorporamento), non può essere una stringa vuota e qualsiasi matrice deve avere dimensioni di 2.048 o meno. Codice Python di esempio per il conteggio dei token. Oltre al limite di token per input, tutti i modelli di incorporamento applicano un massimo di 300.000 token sommati in tutti gli input in una singola richiesta.
Modello Stringa ID del modello da utilizzare. È possibile usare l'API List models (Elenco modelli ) per visualizzare tutti i modelli disponibili o vedere la panoramica del modello per le descrizioni.
Utente Stringa Altre informazioni. No

OpenAI.CreateEmbeddingResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.Embedding Elenco di incorporamenti generati dal modello.
Modello Stringa Nome del modello utilizzato per generare l'incorporamento.
Oggetto Enum Tipo di oggetto, che è sempre "list".
Valori possibili: list
Utilizzo OpenAI.CreateEmbeddingResponseUsage
└prompt_tokens Intero
└total_tokens Intero

OpenAI.CreateEmbeddingResponseUsage

Nome Digitare Descrizione Obbligatorio Predefinito
prompt_tokens Intero
total_tokens Intero

OpenAI.CreateEvalCompletionsRunDataSource

Un oggetto CompletionsRunDataSource che descrive una configurazione di campionamento di modello.

Nome Digitare Descrizione Obbligatorio Predefinito
input_messages OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesTemplate o OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesItemReference Utilizzato durante il campionamento da un modello. Determina la struttura dei messaggi passati nel modello. Può essere un riferimento a una traiettoria predefinita (ad esempio, item.input_trajectory) o a un modello con riferimenti variabili allo spazio dei item nomi. No
Modello Stringa Nome del modello da usare per la generazione di completamenti (ad esempio "o3-mini"). No
sampling_params AzureCompletionsSamplingParams Parametri di campionamento per controllare il comportamento dei completamenti. No
fonte OpenAI.EvalJsonlFileContentSource o OpenAI.EvalJsonlFileIdSource o OpenAI.EvalStoredCompletionsSource Determina il popolamento dello item spazio dei nomi nell'origine dati di questa esecuzione.
digitare Enum Il tipo di fonte di dati di run. Sempre completions.
Valori possibili: completions

OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesItemReference

Nome Digitare Descrizione Obbligatorio Predefinito
item_reference Stringa
digitare Enum
Valori possibili: item_reference

OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesTemplate

Nome Digitare Descrizione Obbligatorio Predefinito
Modello matrice di OpenAI.EasyInputMessage o OpenAI.EvalItem
digitare Enum
Valori possibili: template

OpenAI.CreateEvalCompletionsRunDataSourceSamplingParams

Nome Digitare Descrizione Obbligatorio Predefinito
max_completion_tokens Intero No
reasoning_effort OpenAI.ReasoningEffort Vincola lo sforzo sul ragionamento per
ragionamento dei modelli.
I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
- gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.
- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.
- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.
- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max.
No
response_format OpenAI.ResponseFormatText o OpenAI.ResponseFormatJsonSchema o OpenAI.ResponseFormatJsonObject No
Seme Intero Un valore di inizializzazione inizializza la casualità durante il campionamento. No 42
Temperatura Numero Una temperatura più alta aumenta la casualità nelle uscite. No 1
Strumenti matrice di OpenAI.ChatCompletionTool No
top_p Numero Un'alternativa alla temperatura per il campionamento del nucleo; La versione 1.0 include tutti i gettoni. No 1

OpenAI.CreateEvalCustomDataSourceConfig

Un oggetto CustomDataSourceConfig che definisce lo schema per la sorgente dati utilizzata per la valutazione viene eseguito. Questo schema viene usato per definire la forma dei dati che saranno:

  • Usato per definire i criteri di test e
  • Quali dati sono necessari durante la creazione di un'esecuzione
Nome Digitare Descrizione Obbligatorio Predefinito
include_sample_schema Boolean Se la valutazione dovrebbe aspettarsi che tu popoli il namespace campione (cioè generando risposte dalla tua fonte dati)? No
item_schema Oggetto Lo schema json per ogni riga nella sorgente dati.
digitare Enum Il tipo di fonte di dati. Sempre custom.
Valori possibili: custom

OpenAI.CreateEvalItem

Un messaggio in chat che costituisce il prompt o il contesto. Può includere riferimenti a variabili allo spazio dei item nomi, ad esempio {{item.name}}.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto Stringa Il contenuto del messaggio.
Ruolo Stringa Ruolo del messaggio ,ad esempio "system", "assistant", "user".

OpenAI.CreateEvalJsonlRunDataSource

Un oggetto JsonlRunDataSource con questo specifica un file JSONL che corrisponde all'evalazione

Nome Digitare Descrizione Obbligatorio Predefinito
fonte OpenAI.EvalJsonlFileContentSource o OpenAI.EvalJsonlFileIdSource Determina il popolamento dello item spazio dei nomi nell'origine dati.
digitare Enum Il tipo di fonte di dati. Sempre jsonl.
Valori possibili: jsonl

OpenAI.CreateEvalLabelModelGrader

Un oggetto LabelModelGrader che utilizza un modello per assegnare etichette a ogni elemento nella valutazione.

Nome Digitare Descrizione Obbligatorio Predefinito
Input matrice di OpenAI.CreateEvalItem Un elenco dei messaggi in chat che costituiscono il prompt o il contesto. Può includere riferimenti a variabili allo spazio dei item nomi, ad esempio {{item.name}}.
Etichette matrice di stringhe Le etichette da classificare per ogni articolo nella valutazione.
Modello Stringa Il modello da utilizzare per la valutazione. Deve supportare output strutturati.
Nome Stringa Il nome del correttore.
passing_labels matrice di stringhe Le etichette che indicano un risultato di superamento. Deve essere un sottoinsieme di etichette.
digitare Enum Il tipo di oggetto, che è sempre label_model.
Valori possibili: label_model

OpenAI.CreateEvalLogsDataSourceConfig

Configurazione dell'origine dati che specifica la proprietà dei metadati della query di log. Di solito si tratta di metadati come usecase=chatbot o prompt-version=v2, ecc.

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati Oggetto Filtri metadati per la sorgente di dati dei log. No
digitare Enum Il tipo di fonte di dati. Sempre logs.
Valori possibili: logs

OpenAI.CreateEvalResponsesRunDataSource

Oggetto ResponsesRunDataSource che descrive una configurazione di campionamento del modello.

Nome Digitare Descrizione Obbligatorio Predefinito
input_messages OpenAI.CreateEvalResponsesRunDataSourceInputMessagesTemplate o OpenAI.CreateEvalResponsesRunDataSourceInputMessagesItemReference Utilizzato durante il campionamento da un modello. Determina la struttura dei messaggi passati nel modello. Può essere un riferimento a una traiettoria predefinita (ad esempio, item.input_trajectory) o a un modello con riferimenti variabili allo spazio dei item nomi. No
Modello Stringa Nome del modello da usare per la generazione di completamenti (ad esempio "o3-mini"). No
sampling_params AzureResponsesSamplingParams Parametri di campionamento per controllare il comportamento delle risposte. No
fonte OpenAI.EvalJsonlFileContentSource o OpenAI.EvalJsonlFileIdSource o OpenAI.EvalResponsesSource Determina il popolamento dello item spazio dei nomi nell'origine dati di questa esecuzione.
digitare Enum Il tipo di fonte di dati di run. Sempre responses.
Valori possibili: responses

OpenAI.CreateEvalResponsesRunDataSourceInputMessagesItemReference

Nome Digitare Descrizione Obbligatorio Predefinito
item_reference Stringa
digitare Enum
Valori possibili: item_reference

OpenAI.CreateEvalResponsesRunDataSourceInputMessagesTemplate

Nome Digitare Descrizione Obbligatorio Predefinito
Modello matrice di oggetti o OpenAI.EvalItem
digitare Enum
Valori possibili: template

OpenAI.CreateEvalResponsesRunDataSourceSamplingParams

Nome Digitare Descrizione Obbligatorio Predefinito
reasoning_effort OpenAI.ReasoningEffort Vincola lo sforzo sul ragionamento per
ragionamento dei modelli.
I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
- gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.
- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.
- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.
- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max.
No
Seme Intero Un valore di inizializzazione inizializza la casualità durante il campionamento. No 42
Temperatura Numero Una temperatura più alta aumenta la casualità nelle uscite. No 1
Testo OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText No
Strumenti matrice di OpenAI.Tool No
top_p Numero Un'alternativa alla temperatura per il campionamento del nucleo; La versione 1.0 include tutti i gettoni. No 1

OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText

Nome Digitare Descrizione Obbligatorio Predefinito
Formato OpenAI.TextResponseFormatConfiguration Un oggetto che specifica il formato che il modello deve generare.
La configurazione { "type": "json_schema" } abilita output strutturati,
che garantisce che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere

Il formato predefinito è { "type": "text" } senza opzioni aggiuntive.
*Non consigliato per i modelli gpt-4o e versioni successive:**
L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, che
garantisce che il messaggio generato dal modello sia JSON valido. Utilizzando json_schema
è preferibile per i modelli che lo supportano.
No

OpenAI.CreateEvalRunRequest

Nome Digitare Descrizione Obbligatorio Predefinito
data_source OpenAI.CreateEvalJsonlRunDataSource o OpenAI.CreateEvalCompletionsRunDataSource o OpenAI.CreateEvalResponsesRunDataSource Dettagli sull'origine dati dell'esecuzione.
Metadati OpenAI.Metadata o Null No
Nome Stringa Il nome della corsa. No

OpenAI.CreateEvalStoredCompletionsDataSourceConfig

Deprecato a favore di LogsDataSourceConfig.

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati Oggetto Filtri di metadati per l'origine dati di completamento archiviati. No
digitare Enum Il tipo di fonte di dati. Sempre stored_completions.
Valori possibili: stored_completions

OpenAI.CreateFileRequest

Nome Digitare Descrizione Obbligatorio Predefinito
expires_after Oggetto
Ancoraggio └* AzureFileExpiryAnchor
└> secondi Intero
File Oggetto File (non nome file) da caricare.
Scopo Enum Scopo previsto del file caricato. Uno di: - assistants: usato nell'API Assistants - batch: Usato nell'API Batch - fine-tune: usato per l'ottimizzazione- evals: usato per set di dati eval
Valori possibili: assistants, batch, fine-tune, evals

OpenAI.CreateFineTuningCheckpointPermissionRequest

Nome Digitare Descrizione Obbligatorio Predefinito
project_ids matrice di stringhe Identificatori del progetto a cui concedere l'accesso.

OpenAI.CreateFineTuningJobRequest

Modelli validi:

babbage-002
davinci-002
gpt-3.5-turbo
gpt-4o-mini
Nome Digitare Descrizione Obbligatorio Predefinito
iperparametri OpenAI.CreateFineTuningJobRequestHyperparameters No
└batch_size stringa o integer No Automatico
└learning_rate_multiplier stringa o numero No
└n_epochs stringa o integer No Automatico
Integrazioni matrice di OpenAI.CreateFineTuningJobRequestIntegrations o null Elenco di integrazioni da abilitare per il processo di ottimizzazione. No
Metadati OpenAI.Metadata o Null No
Metodo OpenAI.FineTuneMethod Metodo utilizzato per l'ottimizzazione. No
Modello string (vedere modelli validi di seguito) Nome del modello da ottimizzare. È possibile selezionare una delle
modelli supportati.
Seme integer o null Il valore di inizializzazione controlla la riproducibilità del processo. Passare gli stessi parametri seed e job dovrebbe produrre gli stessi risultati, ma può differire in rari casi.
Se non viene specificato un valore di inizializzazione, ne verrà generato uno automaticamente.
No
Suffisso stringa o null Stringa di un massimo di 64 caratteri che verrà aggiunta al nome del modello ottimizzato.
Ad esempio, un suffix valore di "custom-model-name" produce un nome di modello come ft:gpt-4o-mini:openai:custom-model-name:7p4lURel.
No
training_file Stringa ID di un file caricato che contiene i dati di training.
Per informazioni su come caricare un file, vedere Caricare un file.
Il set di dati deve essere formattato come file JSONL. Inoltre, è necessario caricare il file con lo scopo fine-tune.
Il contenuto del file deve variare a seconda che il modello usi la chat, il formato dei completamenti o se il metodo di ottimizzazione usa il formato preferenza .
Per altri dettagli, vedere la guida all'ottimizzazione .
validation_file stringa o null ID di un file caricato che contiene i dati di convalida.
Se si specifica questo file, i dati vengono usati per generare la convalida
metriche periodicamente durante l'ottimizzazione. Queste metriche possono essere visualizzate in
file dei risultati di ottimizzazione.
Gli stessi dati non devono essere presenti sia nei file di training che in quello di convalida.
Il set di dati deve essere formattato come file JSONL. È necessario caricare il file con lo scopo fine-tune.
Per altri dettagli, vedere la guida all'ottimizzazione .
No

OpenAI.CreateFineTuningJobRequestHyperparameters

Nome Digitare Descrizione Obbligatorio Predefinito
batch_size stringa o integer No
learning_rate_multiplier stringa o numero No
n_epochs stringa o integer No

OpenAI.CreateFineTuningJobRequestIntegrations

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum
Valori possibili: wandb
wandb OpenAI.CreateFineTuningJobRequestIntegrationsWandb

OpenAI.CreateFineTuningJobRequestIntegrationsWandb

Nome Digitare Descrizione Obbligatorio Predefinito
Entità stringa o null No
Nome stringa o null No
Progetto Stringa
Tag matrice di stringhe No

OpenAI.CreateMessageRequest

Nome Digitare Descrizione Obbligatorio Predefinito
Allegati matrice di OpenAI.CreateMessageRequestAttachments o null No
Contenuto stringa o matrice di OpenAI.MessageContentImageFileObject o OpenAI.MessageContentImageUrlObject o OpenAI.MessageRequestContentTextObject
Metadati OpenAI.Metadata o Null No
Ruolo Enum Il ruolo dell'entità che crea il messaggio. I valori consentiti includono:
- user: Indica che il messaggio è stato inviato da un utente reale e dovrebbe essere usato nella maggior parte dei casi per rappresentare messaggi generati dall'utente.
- assistant: Indica che il messaggio è stato generato dall'assistente. Usa questo valore per inserire messaggi dall'assistente nella conversazione.
Valori possibili: user, assistant

OpenAI.CreateMessageRequestAttachments

Nome Digitare Descrizione Obbligatorio Predefinito
File_id Stringa No
Strumenti matrice di OpenAI.AssistantToolsCode o OpenAI.AssistantToolsFileSearchTypeOnly No

OpenAI.CreateResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Priorità bassa booleano o null No
Conversazione OpenAI.ConversationParam o null No
Includono matrice di OpenAI.IncludeEnum o null No
Input OpenAI.InputParam Input di testo, immagine o file al modello, utilizzati per generare una risposta.
Ulteriori informazioni:
- Input di testo e output
- Input dell'immagine
- Input di file
- Stato conversazione
- Chiamata di funzione
No
Istruzioni stringa o null No
max_output_tokens integer o null No
max_tool_calls integer o null No
Metadati OpenAI.Metadata o Null No
Modello Stringa ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAI
offre un'ampia gamma di modelli con diverse funzionalità, prestazioni
caratteristiche e punti di prezzo. Fare riferimento alla guida al modello
per esplorare e confrontare i modelli disponibili.
No
parallel_tool_calls booleano o null No
previous_response_id stringa o null No
prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
prompt_cache_key Stringa Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo. Altre informazioni. No
prompt_cache_retention stringa o null No
Ragionamento OpenAI.Reasoning o null No
safety_identifier Stringa Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI.
Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni.
No
Negozio booleano o null No
Flusso booleano o null No
stream_options OpenAI.ResponseStreamOptions o null No
Temperatura number o null No
Testo OpenAI.ResponseTextParam Opzioni di configurazione per una risposta testuale dal modello. Può essere semplice
dati JSON strutturati o di testo. Ulteriori informazioni:
- Input di testo e output
- Output strutturati
No
tool_choice OpenAI.ToolChoiceParam Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione
una risposta. Vedere il tools parametro per vedere come specificare gli strumenti
il modello può chiamare.
No
Strumenti OpenAI.ToolsArray Una serie di strumenti che il modello può chiamare mentre genera una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .
Sono supportate le categorie di strumenti seguenti:
- Strumenti integrati: Strumenti forniti da OpenAI che estendono la
funzionalità del modello, ad esempio la ricerca Web
o ricerca di file. Altre informazioni
strumenti predefiniti.
- Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati
o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni
Strumenti MCP.
- Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente,
abilitazione del modello per chiamare il proprio codice con argomenti fortemente tipizzato
e output. Altre informazioni
chiamata di funzione. È anche possibile usare
strumenti personalizzati per chiamare il proprio codice.
No
top_logprobs integer o null No
top_p number o null No
Troncamento stringa o null No
Utente stringa (deprecata) Questo campo viene sostituito da safety_identifier e prompt_cache_key. Usare prompt_cache_key invece per mantenere le ottimizzazioni della memorizzazione nella cache.
Identificatore stabile per gli utenti finali.
Usato per aumentare la frequenza di riscontri nella cache migliorando il bucket di richieste simili e per consentire a OpenAI di rilevare e prevenire abusi. Altre informazioni.
No

OpenAI.CreateRunRequest

Nome Digitare Descrizione Obbligatorio Predefinito
additional_instructions stringa o null Aggiunge istruzioni aggiuntive alla fine delle istruzioni per la corsa. Questo è utile per modificare il comportamento su base per run senza sovrascrivere altre istruzioni. No
additional_messages matrice di OpenAI.CreateMessageRequest o null Aggiunge messaggi aggiuntivi al thread prima di creare la run. No
assistant_id Stringa ID dell'assistente da usare per eseguire questa esecuzione.
Istruzioni stringa o null Esegue l'override delle istruzioni dell'assistente. Questo è utile per modificare il comportamento su base per run. No
max_completion_tokens integer o null Il numero massimo di gettoni di completamento che possono essere utilizzati durante la run. L'esecuzione farà del meglio per usare solo il numero di token di completamento specificati, in più turni dell'esecuzione. Se la corsa supera il numero di token di completamento specificato, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni. No
max_prompt_tokens integer o null Il numero massimo di token prompt che possono essere utilizzati durante la run. L'esecuzione farà del meglio per usare solo il numero di token di richiesta specificati, in più turni dell'esecuzione. Se la corsa supera il numero di token prompt specificati, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni. No
Metadati OpenAI.Metadata o Null No
Modello Stringa ID del modello da utilizzare per eseguire questa esecuzione. Se qui viene fornito un valore, esso sovrascriverà il modello associato all'assistente. In caso contrario, verrà utilizzato il modello associato all'assistente. No
parallel_tool_calls OpenAI.ParallelToolCalls Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. No
reasoning_effort OpenAI.ReasoningEffort Vincola lo sforzo sul ragionamento per
ragionamento dei modelli.
I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
- gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.
- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.
- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.
- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max.
No
response_format OpenAI.AssistantsApiResponseFormatOption Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.
L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere
Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.
Importante:* quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto.
No
Flusso booleano o null Se true, restituisce un flusso di eventi che avvengono durante la Run come eventi inviati dal server, terminando quando la Run entra in uno stato terminale con un data: [DONE] messaggio. No
Temperatura number o null Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. No
tool_choice OpenAI.AssistantsApiToolChoiceOption Controlla quale (se presente) strumento viene chiamato dal modello.
none significa che il modello non richiamerà nessuno strumento ma invece genera un messaggio.
auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.
required indica che il modello deve chiamare uno o più strumenti prima di rispondere all'utente.
Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo.
No
Strumenti matrice di OpenAI.AssistantTool Sovrascrivi gli strumenti che l'assistente può usare per questa corsa. Questo è utile per modificare il comportamento su base per run. No
top_p number o null Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.
In genere consigliamo di modificare questo o la temperatura, ma non entrambi.
No
truncation_strategy OpenAI.TruncationObject Controlli su come un thread verrà troncato prima dell'esecuzione. Usa questo per controllare la finestra contestuale iniziale della run. No

OpenAI.CreateThreadAndRunRequest

Nome Digitare Descrizione Obbligatorio Predefinito
assistant_id Stringa ID dell'assistente da usare per eseguire questa esecuzione.
Istruzioni stringa o null Sovrascrivi il messaggio di sistema predefinito dell'assistente. Questo è utile per modificare il comportamento su base per run. No
max_completion_tokens integer o null Il numero massimo di gettoni di completamento che possono essere utilizzati durante la run. L'esecuzione farà del meglio per usare solo il numero di token di completamento specificati, in più turni dell'esecuzione. Se la corsa supera il numero di token di completamento specificato, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni. No
max_prompt_tokens integer o null Il numero massimo di token prompt che possono essere utilizzati durante la run. L'esecuzione farà del meglio per usare solo il numero di token di richiesta specificati, in più turni dell'esecuzione. Se la corsa supera il numero di token prompt specificati, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni. No
Metadati OpenAI.Metadata o Null No
Modello Stringa ID del modello da utilizzare per eseguire questa esecuzione. Se qui viene fornito un valore, esso sovrascriverà il modello associato all'assistente. In caso contrario, verrà utilizzato il modello associato all'assistente. No
parallel_tool_calls OpenAI.ParallelToolCalls Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. No
response_format OpenAI.AssistantsApiResponseFormatOption Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.
L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere
Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.
Importante:* quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto.
No
Flusso booleano o null Se true, restituisce un flusso di eventi che avvengono durante la Run come eventi inviati dal server, terminando quando la Run entra in uno stato terminale con un data: [DONE] messaggio. No
Temperatura number o null Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. No
Thread OpenAI.CreateThreadRequest Opzioni per creare un nuovo thread. Se non viene fornito alcun thread durante l'esecuzione di un
request, verrà creato un thread vuoto.
No
tool_choice OpenAI.AssistantsApiToolChoiceOption Controlla quale (se presente) strumento viene chiamato dal modello.
none significa che il modello non richiamerà nessuno strumento ma invece genera un messaggio.
auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.
required indica che il modello deve chiamare uno o più strumenti prima di rispondere all'utente.
Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo.
No
tool_resources OpenAI.CreateThreadAndRunRequestToolResources o null Un insieme di risorse utilizzate dagli strumenti dell'assistente. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale. No
Strumenti matrice di OpenAI.AssistantTool Sovrascrivi gli strumenti che l'assistente può usare per questa corsa. Questo è utile per modificare il comportamento su base per run. No
top_p number o null Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.
In genere consigliamo di modificare questo o la temperatura, ma non entrambi.
No
truncation_strategy OpenAI.TruncationObject Controlli su come un thread verrà troncato prima dell'esecuzione. Usa questo per controllare la finestra contestuale iniziale della run. No

OpenAI.CreateThreadAndRunRequestToolResources

Nome Digitare Descrizione Obbligatorio Predefinito
code_interpreter OpenAI.CreateThreadAndRunRequestToolResourcesCodeInterpreter No
file_search OpenAI.CreateThreadAndRunRequestToolResourcesFileSearch No

OpenAI.CreateThreadAndRunRequestToolResourcesCodeInterpreter

Nome Digitare Descrizione Obbligatorio Predefinito
file_ids matrice di stringhe No []

OpenAI.CreateThreadAndRunRequestToolResourcesFileSearch

Nome Digitare Descrizione Obbligatorio Predefinito
vector_store_ids matrice di stringhe No

OpenAI.CreateThreadRequest

Opzioni per creare un nuovo thread. Se non viene fornito alcun thread durante l'esecuzione di una richiesta, verrà creato un thread vuoto.

Nome Digitare Descrizione Obbligatorio Predefinito
Messaggi matrice di OpenAI.CreateMessageRequest Elenco di messaggi con cui avviare il thread. No
Metadati OpenAI.Metadata o Null No
tool_resources OpenAI.CreateThreadRequestToolResources o null No

OpenAI.CreateThreadRequestToolResources

Nome Digitare Descrizione Obbligatorio Predefinito
code_interpreter OpenAI.CreateThreadRequestToolResourcesCodeInterpreter No
file_search oggetto o oggetto No

OpenAI.CreateThreadRequestToolResourcesCodeInterpreter

Nome Digitare Descrizione Obbligatorio Predefinito
file_ids matrice di stringhe No

OpenAI.CreateVectorStoreFileBatchRequest

Nome Digitare Descrizione Obbligatorio Predefinito
Attributi OpenAI.VectorStoreFileAttributes o null No
chunking_strategy OpenAI.ChunkingStrategyRequestParam La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . Applicabile solo se file_ids non è vuoto. No
file_ids matrice di stringhe Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search questo che può accedere ai file. Se attributes o chunking_strategy vengono forniti, verranno applicati a tutti i file nel batch. Si escludono a vicenda con files. No
File matrice di OpenAI.CreateVectorStoreFileRequest Elenco di oggetti che includono un file_id segno più facoltativo attributes o chunking_strategy. Usare questa opzione quando è necessario eseguire l'override dei metadati per file specifici. Il valore globale attributes o chunking_strategy verrà ignorato e deve essere specificato per ogni file. Si escludono a vicenda con file_ids. No

OpenAI.CreateVectorStoreFileRequest

Nome Digitare Descrizione Obbligatorio Predefinito
Attributi OpenAI.VectorStoreFileAttributes o null No
chunking_strategy OpenAI.ChunkingStrategyRequestParam La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . Applicabile solo se file_ids non è vuoto. No
File_id Stringa ID file che deve essere usato dall'archivio vettoriale. Utile per strumenti come file_search questo che può accedere ai file.

OpenAI.CreateVectorStoreRequest

Nome Digitare Descrizione Obbligatorio Predefinito
chunking_strategy OpenAI.ChunkingStrategyRequestParam La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . Applicabile solo se file_ids non è vuoto. No
Descrizione Stringa Descrizione dell'archivio vettoriale. Può essere usato per descrivere lo scopo dell'archivio vettoriale. No
expires_after OpenAI.VectorStoreExpirationAfter La politica di scadenza per uno store vettoriale. No
file_ids matrice di stringhe Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search questo che può accedere ai file. No
Metadati OpenAI.Metadata o Null No
Nome Stringa Il nome del negozio vettoriale. No

OpenAI.CustomGrammarFormatParam

Grammatica definita dall'utente.

Nome Digitare Descrizione Obbligatorio Predefinito
Definizione Stringa Definizione della grammatica.
Sintassi OpenAI.GrammarSyntax1
digitare Enum Formato grammaticale. Sempre grammar.
Valori possibili: grammar

OpenAI.CustomTextFormatParam

Testo in formato libero senza vincoli.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Formato di testo non vincolato. Sempre text.
Valori possibili: text

OpenAI.CustomToolChatCompletions

Strumento personalizzato che elabora l'input usando un formato specificato.

Nome Digitare Descrizione Obbligatorio Predefinito
Personalizzato OpenAI.CustomToolChatCompletionsCustom
└* descrizione Stringa No
└* formato OpenAI.CustomToolChatCompletionsCustomFormatText o OpenAI.CustomToolChatCompletionsCustomFormatGrammar No
└> nome Stringa
digitare Enum Tipo dello strumento personalizzato. Sempre custom.
Valori possibili: custom

OpenAI.CustomToolChatCompletionsCustom

Nome Digitare Descrizione Obbligatorio Predefinito
Descrizione Stringa No
Formato OpenAI.CustomToolChatCompletionsCustomFormatText o OpenAI.CustomToolChatCompletionsCustomFormatGrammar No
Nome Stringa

OpenAI.CustomToolChatCompletionsCustomFormatGrammar

Nome Digitare Descrizione Obbligatorio Predefinito
Grammatica OpenAI.CustomToolChatCompletionsCustomFormatGrammarGrammar
Definizione └* Stringa
Sintassi └++ Enum
Valori possibili: lark, regex
digitare Enum
Valori possibili: grammar

OpenAI.CustomToolChatCompletionsCustomFormatGrammarGrammar

Nome Digitare Descrizione Obbligatorio Predefinito
Definizione Stringa
Sintassi Enum
Valori possibili: lark, regex

OpenAI.CustomToolChatCompletionsCustomFormatText

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum
Valori possibili: text

OpenAI.CustomToolParam

Strumento personalizzato che elabora l'input usando un formato specificato. Altre informazioni sugli strumenti personalizzati

Nome Digitare Descrizione Obbligatorio Predefinito
Descrizione Stringa Descrizione facoltativa dello strumento personalizzato, usata per fornire più contesto. No
Formato OpenAI.CustomToolParamFormat Formato di input per lo strumento personalizzato. Il valore predefinito è testo non vincolato. No
Tipo └* OpenAI.CustomToolParamFormatType
Nome Stringa Nome dello strumento personalizzato, usato per identificarlo nelle chiamate degli strumenti.
digitare Enum Tipo dello strumento personalizzato. Sempre custom.
Valori possibili: custom

OpenAI.CustomToolParamFormat

Formato di input per lo strumento personalizzato. Il valore predefinito è testo non vincolato.

Discriminare per OpenAI.CustomToolParamFormat

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
text OpenAI.CustomTextFormatParam
grammar OpenAI.CustomGrammarFormatParam
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.CustomToolParamFormatType

OpenAI.CustomToolParamFormatType

Proprietà Valore
Digitare Stringa
Valori text
grammar

OpenAI.DeleteFileResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Eliminato Boolean
Id Stringa
Oggetto Enum
Valori possibili: file

OpenAI.DeleteFineTuningCheckpointPermissionResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Eliminato Boolean Indica se l'autorizzazione del checkpoint del modello ottimizzata è stata eliminata correttamente.
Id Stringa ID dell'autorizzazione del checkpoint del modello ottimizzata eliminata.
Oggetto Enum Tipo di oggetto, che è sempre "checkpoint.permission".
Valori possibili: checkpoint.permission

OpenAI.DeleteMessageResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Eliminato Boolean
Id Stringa
Oggetto Enum
Valori possibili: thread.message.deleted

OpenAI.DeleteModelResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Eliminato Boolean
Id Stringa
Oggetto Stringa

OpenAI.DeleteThreadResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Eliminato Boolean
Id Stringa
Oggetto Enum
Valori possibili: thread.deleted

OpenAI.DeleteVectorStoreFileResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Eliminato Boolean
Id Stringa
Oggetto Enum
Valori possibili: vector_store.file.deleted

OpenAI.DeleteVectorStoreResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Eliminato Boolean
Id Stringa
Oggetto Enum
Valori possibili: vector_store.deleted

OpenAI.DeletedConversationResource

Nome Digitare Descrizione Obbligatorio Predefinito
Eliminato Boolean
Id Stringa
Oggetto Enum
Valori possibili: conversation.deleted

OpenAI.DoubleClickAction

Un doppio clic.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Specifica il tipo di evento. Per un'azione di doppio clic, questa proprietà è sempre impostata su double_click.
Valori possibili: double_click
X Intero La coordinata x dove è avvenuto il doppio clic.
Y Intero La coordinata y in cui si è verificato il doppio clic.

OpenAI.Drag

Un'azione di trascinamento.

Nome Digitare Descrizione Obbligatorio Predefinito
Percorso matrice di OpenAI.DragPoint Un array di coordinate che rappresentano il percorso dell'azione di trascinata. Le coordinate verranno visualizzate come matrice
di oggetti, ad esempio
<br> [<br> { x: 100, y: 200 },<br> { x: 200, y: 300 }<br> ]<br>
digitare Enum Specifica il tipo di evento. Per un'azione di trascinamento, questa proprietà è
sempre impostato su drag.
Valori possibili: drag

OpenAI.DragPoint

Una coppia di coordinate x/y, ad { x: 100, y: 200 }esempio .

Nome Digitare Descrizione Obbligatorio Predefinito
X Intero Coordinata x.
Y Intero Coordinata y.

OpenAI.EasyInputMessage

Un messaggio inserito nel modello con un ruolo che indica l'istruzione che segue la gerarchia. Le istruzioni date con il developer ruolo o system hanno la precedenza rispetto alle istruzioni date con il user ruolo. Si presume che i messaggi con il assistant ruolo siano stati generati dal modello in interazioni precedenti.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto string o OpenAI.InputMessageContentList Input di testo, immagine o audio al modello, utilizzato per generare una risposta.
Può anche contenere risposte precedenti degli assistenti.
Ruolo Enum Il ruolo dell'input del messaggio. Uno di user, assistant, systemo
developer.
Valori possibili: user, assistant, system, developer
digitare Enum Il tipo di input del messaggio. Sempre message.
Valori possibili: message

OpenAI.Embedding

Rappresenta un vettore di incorporamento restituito dall'endpoint di incorporamento.

Nome Digitare Descrizione Obbligatorio Predefinito
Incorporamento matrice di numeri Vettore di incorporamento, che è un elenco di float. La lunghezza del vettore dipende dal modello elencato nella guida all'incorporamento.
Indice Intero Indice dell'incorporamento nell'elenco di incorporamenti.
Oggetto Enum Tipo di oggetto, che è sempre "incorporamento".
Valori possibili: embedding

OpenAI.Eval

Un oggetto Eval con una configurazione della sorgente dati e criteri di test. Una valutazione rappresenta un compito da svolgere per l'integrazione del tuo LLM. Come:

  • Migliora la qualità del mio chatbot
  • Scopri come il mio chatbot gestisce l'assistenza clienti
  • Controllare se o4-mini è meglio nel mio caso d'uso rispetto a gpt-4o
Nome Digitare Descrizione Obbligatorio Predefinito
created_at Intero Il timestamp Unix (in secondi) indica quando è stata creata la valutazione.
data_source_config OpenAI.EvalCustomDataSourceConfig o OpenAI.EvalLogsDataSourceConfig o OpenAI.EvalStoredCompletionsDataSourceConfig Configurazione delle origini dati usate nelle esecuzioni della valutazione.
Id Stringa Identificatore unico per la valutazione.
Metadati OpenAI.Metadata o Null
Nome Stringa Il nome della valutazione.
Oggetto Enum Il tipo di oggetto.
Valori possibili: eval
testing_criteria matrice di OpenAI.CreateEvalLabelModelGrader o OpenAI.EvalGraderStringCheck o OpenAI.EvalGraderTextSimilarity o OpenAI.EvalGraderPython o OpenAI.EvalGraderScoreModel o EvalGraderEndpoint Un elenco di criteri per il test.

OpenAI.EvalApiError

Un oggetto che rappresenta una risposta di errore dall'API Eval.

Nome Digitare Descrizione Obbligatorio Predefinito
Codice Stringa Il codice di errore.
Messaggio Stringa Il messaggio di errore.

OpenAI.EvalCustomDataSourceConfig

Un CustomDataSourceConfig che specifica lo schema del tuo item e, opzionalmente sample , degli spazi di nomi. Lo schema di risposta definisce la forma dei dati che saranno:

  • Usato per definire i criteri di test e
  • Quali dati sono necessari durante la creazione di un'esecuzione
Nome Digitare Descrizione Obbligatorio Predefinito
Schema Oggetto Lo schema json per gli elementi della sorgente dati eseguita.
Impara qui come costruire schemi JSON.
digitare Enum Il tipo di fonte di dati. Sempre custom.
Valori possibili: custom

OpenAI.EvalGraderPython

Nome Digitare Descrizione Obbligatorio Predefinito
image_tag Stringa Tag immagine da usare per lo script Python. No
Nome Stringa Il nome del correttore.
pass_threshold Numero La soglia per il punteggio. No
fonte Stringa Codice sorgente dello script Python.
digitare Enum Il tipo di oggetto, che è sempre python.
Valori possibili: python

OpenAI.EvalGraderScoreModel

Nome Digitare Descrizione Obbligatorio Predefinito
Input matrice di OpenAI.EvalItem Messaggi di input valutati dal classificatore. Supporta blocchi di testo, testo di output, immagine di input e contenuto audio di input e può includere stringhe modello.
Modello Stringa Il modello da utilizzare per la valutazione.
Nome Stringa Il nome del correttore.
pass_threshold Numero La soglia per il punteggio. No
Gamma matrice di numeri La gamma della partitura. Di default è [0, 1]. No
sampling_params OpenAI.EvalGraderScoreModelSamplingParams No
└max_completions_tokens integer o null No
└reasoning_effort OpenAI.ReasoningEffort Vincola lo sforzo sul ragionamento per
ragionamento dei modelli.
I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
- gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.
- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.
- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.
- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max.
No
└* valore di inizializzazione integer o null No
└* temperatura number o null No
└top_p number o null No 1
digitare Enum Il tipo di oggetto, che è sempre score_model.
Valori possibili: score_model

OpenAI.EvalGraderScoreModelSamplingParams

Nome Digitare Descrizione Obbligatorio Predefinito
max_completions_tokens integer o null No
reasoning_effort OpenAI.ReasoningEffort Vincola lo sforzo sul ragionamento per
ragionamento dei modelli.
I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
- gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.
- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.
- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.
- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max.
No
Seme integer o null No
Temperatura number o null No
top_p number o null No

OpenAI.EvalGraderStringCheck

Nome Digitare Descrizione Obbligatorio Predefinito
Input Stringa Il testo di input. Questo può includere stringhe template.
Nome Stringa Il nome del correttore.
Operazione Enum L'operazione di controllo stringhe da eseguire. Uno di eq, ne, like, o ilike.
Valori possibili: eq, ne, like, ilike
Riferimento Stringa Il testo di riferimento. Questo può includere stringhe template.
digitare Enum Il tipo di oggetto, che è sempre string_check.
Valori possibili: string_check

OpenAI.EvalGraderTextSimilarity

Nome Digitare Descrizione Obbligatorio Predefinito
evaluation_metric Enum La metrica di valutazione da utilizzare. Uno di cosine, fuzzy_match, bleu, ,
gleu, meteor, rouge_1, rouge_2rouge_3, rouge_4, , rouge_5
o rouge_l.
Valori possibili: cosine, fuzzy_matchbleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
Input Stringa Il testo viene valutato.
Nome Stringa Il nome del correttore.
pass_threshold Numero La soglia per il punteggio.
Riferimento Stringa Il testo è stato valutato.
digitare Enum Il tipo di correttore.
Valori possibili: text_similarity

OpenAI.EvalItem

Un messaggio inserito nel modello con un ruolo che indica l'istruzione che segue la gerarchia. Le istruzioni date con il developer ruolo o system hanno la precedenza rispetto alle istruzioni date con il user ruolo. Si presume che i messaggi con il assistant ruolo siano stati generati dal modello in interazioni precedenti.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto OpenAI.EvalItemContent Input per il modello: può contenere stringhe di modello. Supporta testo, testo di output, immagini di input e audio di input, come singolo elemento o matrice di elementi.
Ruolo Enum Il ruolo dell'input del messaggio. Uno di user, assistant, systemo
developer.
Valori possibili: user, assistant, system, developer
digitare Enum Il tipo di input del messaggio. Sempre message.
Valori possibili: message
No

OpenAI.EvalItemContent

Input per il modello: può contenere stringhe di modello. Supporta testo, testo di output, immagini di input e audio di input, come singolo elemento o matrice di elementi.

Tipo: OpenAI.EvalItemContentItem o OpenAI.EvalItemContentArray

Input per il modello: può contenere stringhe di modello. Supporta testo, testo di output, immagini di input e audio di input, come singolo elemento o matrice di elementi.

OpenAI.EvalItemContentArray

Elenco di input, ognuno dei quali può essere un testo di input, testo di output, immagine di input o oggetto audio di input.

Matrice di: OpenAI.EvalItemContentItem

OpenAI.EvalItemContentItem

Un singolo elemento di contenuto: testo di input, testo di output, immagine di input o audio di input.

Tipo: OpenAI.EvalItemContentText o OpenAI.EvalItemContentItemObject

Un singolo elemento di contenuto: testo di input, testo di output, immagine di input o audio di input.

OpenAI.EvalItemContentItemObject

Un singolo elemento di contenuto: testo di input, testo di output, immagine di input o audio di input.

Discriminare per OpenAI.EvalItemContentItemObject

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
output_text OpenAI.EvalItemContentOutputText
input_image OpenAI.EvalItemInputImage
input_audio OpenAI.InputAudio
input_text OpenAI.EvalItemContentItemObjectInputTextContent
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.EvalItemContentItemObjectType

OpenAI.EvalItemContentItemObjectInputTextContent

Un input testuale al modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Il testo inserito nel modello.
digitare Enum Il tipo dell'elemento di input. Sempre input_text.
Valori possibili: input_text

OpenAI.EvalItemContentItemObjectType

Proprietà Valore
Digitare Stringa
Valori input_text
output_text
input_image
input_audio

OpenAI.EvalItemContentOutputText

Un testo prodotto dal modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Il testo prodotto dal modello.
digitare Enum Il tipo del testo in uscita. Sempre output_text.
Valori possibili: output_text

OpenAI.EvalItemContentText

Un input testuale al modello.

Tipo: string

OpenAI.EvalItemInputImage

Blocco di input immagine usato nelle matrici di contenuto EvalItem.

Nome Digitare Descrizione Obbligatorio Predefinito
Dettaglio Stringa Il livello di dettaglio dell'immagine da inviare al modello. Uno di high, low, oppure auto. Di default è auto. No
image_url Stringa URL dell'input dell'immagine.
digitare Enum Tipo di input dell'immagine. Sempre input_image.
Valori possibili: input_image

OpenAI.EvalJsonlFileContentSource

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto matrice di OpenAI.EvalJsonlFileContentSourceContentContent Il contenuto del file jsonl.
digitare Enum Il tipo di sorgente jsonl. Sempre file_content.
Valori possibili: file_content

OpenAI.EvalJsonlFileContentSourceContentContent

Nome Digitare Descrizione Obbligatorio Predefinito
Elemento Oggetto
Esempio Oggetto No

OpenAI.EvalJsonlFileIdSource

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa L'identificatore del file.
digitare Enum Il tipo di sorgente jsonl. Sempre file_id.
Valori possibili: file_id

OpenAI.EvalList

Un oggetto che rappresenta una lista di valutazioni.

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.Eval Una serie di oggetti valutati.
first_id Stringa L'identificatore della prima valutazione nell'array dei dati.
has_more Boolean Indica se ci sono altre valutazioni disponibili.
last_id Stringa L'identificatore dell'ultima valutazione nell'array di dati.
Oggetto Enum Il tipo di questo oggetto. È sempre impostato su "list".
Valori possibili: list

OpenAI.EvalLogsDataSourceConfig

LogsDataSourceConfig che specifica la proprietà dei metadati della query di log. Di solito si tratta di metadati come usecase=chatbot o prompt-version=v2, ecc. Lo schema restituito da questa configurazione della sorgente dati viene utilizzato per definire quali variabili sono disponibili nelle tue valutazioni. item e sample sono entrambi definiti quando si utilizza questa configurazione di sorgente di dati.

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati OpenAI.Metadata o Null No
Schema Oggetto Lo schema json per gli elementi della sorgente dati eseguita.
Impara qui come costruire schemi JSON.
digitare Enum Il tipo di fonte di dati. Sempre logs.
Valori possibili: logs

OpenAI.EvalResponsesSource

Oggetto EvalResponsesSource che descrive una configurazione dell'origine dati di esecuzione.

Nome Digitare Descrizione Obbligatorio Predefinito
created_after integer o null No
created_before integer o null No
instructions_search stringa o null No
Metadati oggetto o null No
Modello stringa o null No
reasoning_effort OpenAI.ReasoningEffort o null No
Temperatura number o null No
Strumenti matrice di stringhe o null No
top_p number o null No
digitare Enum Il tipo di fonte di dati di run. Sempre responses.
Valori possibili: responses
Gli utenti matrice di stringhe o null No

OpenAI.EvalRun

Uno schema che rappresenta una esecuzione di valutazione.

Nome Digitare Descrizione Obbligatorio Predefinito
created_at Intero Timestamp Unix (in secondi) quando è stata creata l'esecuzione della valutazione.
data_source OpenAI.CreateEvalJsonlRunDataSource o OpenAI.CreateEvalCompletionsRunDataSource o OpenAI.CreateEvalResponsesRunDataSource Informazioni sull'origine dati dell'esecuzione.
Errore OpenAI.EvalApiError Un oggetto che rappresenta una risposta di errore dall'API Eval.
eval_id Stringa L'identificatore della valutazione associata.
Id Stringa Identificatore univoco per l'esecuzione della valutazione.
Metadati OpenAI.Metadata o Null
Modello Stringa Il modello che viene valutato, se applicabile.
Nome Stringa Il nome della corsa di valutazione.
Oggetto Enum Il tipo di oggetto. Sempre "eval.run".
Valori possibili: eval.run
per_model_usage matrice di OpenAI.EvalRunPerModelUsage Statistiche di utilizzo per ogni modello durante l'esecuzione della valutazione.
per_testing_criteria_results matrice di OpenAI.EvalRunPerTestingCriteriaResults Risultati per criterio di test applicati durante la valutazione eseguita.
report_url Stringa L'URL della valutazione renderizzata esegue il report sulla dashboard UI.
result_counts OpenAI.EvalRunResultCounts
└* errore Intero
└* non riuscito Intero
└> superato Intero
└* totale Intero
Stato Stringa Lo stato della valutazione della verifica.

OpenAI.EvalRunList

Un oggetto che rappresenta una lista di corse per una valutazione.

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.EvalRun Una serie di oggetti di valutazione eseguite.
first_id Stringa L'identificatore della prima valutazione eseguita nell'array dati.
has_more Boolean Indica se ci sono altre valutazioni disponibili.
last_id Stringa L'identificatore dell'ultima valutazione eseguita nell'array dati.
Oggetto Enum Il tipo di questo oggetto. È sempre impostato su "list".
Valori possibili: list

OpenAI.EvalRunOutputItem

Uno schema che rappresenta un elemento di output di esecuzione di valutazione.

Nome Digitare Descrizione Obbligatorio Predefinito
created_at Intero Timestamp Unix (in secondi) quando è stata creata l'esecuzione della valutazione.
datasource_item Oggetto Dettagli dell'elemento della fonte dei dati in ingresso.
datasource_item_id Intero L'identificatore per l'elemento della fonte dei dati.
eval_id Stringa L'identificatore del gruppo di valutazione.
Id Stringa Identificatore unico per l'output dell'esecuzione della valutazione.
Oggetto Enum Il tipo di oggetto. Sempre "eval.run.output_item".
Valori possibili: eval.run.output_item
Risultati matrice di OpenAI.EvalRunOutputItemResult Elenco dei risultati del grader per questo elemento di output.
run_id Stringa L'identificatore dell'esecuzione di valutazione associata a questo elemento di output.
Esempio OpenAI.EvalRunOutputItemSample
Errore └* OpenAI.EvalApiError Un oggetto che rappresenta una risposta di errore dall'API Eval.
└finish_reason Stringa
Input └* matrice di OpenAI.EvalRunOutputItemSampleInput
└max_completion_tokens Intero
Modello └* Stringa
└* output matrice di OpenAI.EvalRunOutputItemSampleOutputOutput
└* valore di inizializzazione Intero
└* temperatura Numero
└top_p Numero
└* utilizzo OpenAI.EvalRunOutputItemSampleUsage
Stato Stringa Lo stato della valutazione della verifica.

OpenAI.EvalRunOutputItemList

Un oggetto che rappresenta una lista di elementi di output per una valutazione eseguita.

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.EvalRunOutputItem Un array di oggetti output di output a esecuzione di valutazione.
first_id Stringa L'identificatore dell'elemento di output della prima esecuzione di valutazione nell'array dati.
has_more Boolean Indica se ci sono altri elementi di output di esecuzione di valutazione disponibili.
last_id Stringa L'identificatore dell'ultimo elemento di output dell'esecuzione di valutazione nell'array dati.
Oggetto Enum Il tipo di questo oggetto. È sempre impostato su "list".
Valori possibili: list

OpenAI.EvalRunOutputItemResult

Risultato di un singolo gradore per un elemento di output dell'esecuzione della valutazione.

Nome Digitare Descrizione Obbligatorio Predefinito
Nome Stringa Il nome del correttore.
Passato Boolean Indica se il grader ha considerato l'output un passaggio.
Esempio oggetto o null Dati facoltativi di esempio o intermedi prodotti dal grader. No
Punteggio Numero Punteggio numerico prodotto dal grader.
digitare Stringa Tipo di grader (ad esempio, "string-check-grader"). No

OpenAI.EvalRunOutputItemSample

Nome Digitare Descrizione Obbligatorio Predefinito
Errore OpenAI.EvalApiError Un oggetto che rappresenta una risposta di errore dall'API Eval.
finish_reason Stringa
Input matrice di OpenAI.EvalRunOutputItemSampleInput
max_completion_tokens Intero
Modello Stringa
Output matrice di OpenAI.EvalRunOutputItemSampleOutputOutput
Seme Intero
Temperatura Numero
top_p Numero
Utilizzo OpenAI.EvalRunOutputItemSampleUsage

OpenAI.EvalRunOutputItemSampleInput

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto Stringa
Ruolo Stringa

OpenAI.EvalRunOutputItemSampleOutput

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto Stringa No
Ruolo Stringa No

OpenAI.EvalRunOutputItemSampleUsage

Nome Digitare Descrizione Obbligatorio Predefinito
cached_tokens Intero
completion_tokens Intero
prompt_tokens Intero
total_tokens Intero

OpenAI.EvalRunPerModelUsage

Nome Digitare Descrizione Obbligatorio Predefinito
cached_tokens Intero
completion_tokens Intero
invocation_count Intero
model_name Stringa
prompt_tokens Intero
total_tokens Intero

OpenAI.EvalRunPerTestingCriteriaResults

Nome Digitare Descrizione Obbligatorio Predefinito
Fallito Intero
Passato Intero
testing_criteria Stringa

OpenAI.EvalRunResultCounts

Nome Digitare Descrizione Obbligatorio Predefinito
errore Intero
Fallito Intero
Passato Intero
Totale Intero

OpenAI.EvalStoredCompletionsDataSourceConfig

Deprecato a favore di LogsDataSourceConfig.

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati OpenAI.Metadata o Null No
Schema Oggetto Lo schema json per gli elementi della sorgente dati eseguita.
Impara qui come costruire schemi JSON.
digitare Enum Il tipo di fonte di dati. Sempre stored_completions.
Valori possibili: stored_completions

OpenAI.EvalStoredCompletionsSource

Una configurazione StoredCompletionsRunDataSource che descrive un insieme di filtri

Nome Digitare Descrizione Obbligatorio Predefinito
created_after integer o null No
created_before integer o null No
Limite integer o null No
Metadati OpenAI.Metadata o Null No
Modello stringa o null No
digitare Enum Il tipo di fonte. Sempre stored_completions.
Valori possibili: stored_completions

OpenAI.FileCitationBody

Una citazione per un fascicolo.

Nome Digitare Descrizione Obbligatorio Predefinito
File_id Stringa L'ID del fascicolo.
Filename Stringa Nome file del file citato.
Indice Intero L'indice del file nella lista dei file.
digitare Enum Il tipo della citazione del fascicolo. Sempre file_citation.
Valori possibili: file_citation

OpenAI.FilePath

Un percorso verso un file.

Nome Digitare Descrizione Obbligatorio Predefinito
File_id Stringa L'ID del fascicolo.
Indice Intero L'indice del file nella lista dei file.
digitare Enum Il tipo del percorso del file. Sempre file_path.
Valori possibili: file_path

OpenAI.FileSearchRanker

Il ranker da usare per la ricerca dei file. Se non specificato, userà il auto ranker.

Proprietà Valore
Digitare Stringa
Valori auto
default_2024_08_21

OpenAI.FileSearchRankingOptions

Opzioni di classificazione per la ricerca di file. Se non specificato, lo strumento di ricerca file userà il auto ranker e un score_threshold pari a 0. Per altre informazioni, vedere la documentazione dello strumento di ricerca file .

Nome Digitare Descrizione Obbligatorio Predefinito
ranker OpenAI.FileSearchRanker Il ranker da usare per la ricerca dei file. Se non specificato, userà il auto ranker. No
score_threshold Numero Soglia del punteggio per la ricerca di file. Tutti i valori devono essere un numero in virgola mobile compreso tra 0 e 1.
Vincoli: min: 0, max: 1

OpenAI.FileSearchTool

Uno strumento che cerca contenuti rilevanti dai file caricati.

Nome Digitare Descrizione Obbligatorio Predefinito
Filtri OpenAI.Filters o null No
max_num_results Intero Il numero massimo di risultati da restituire. Questo numero dovrebbe essere compreso tra 1 e 50 inclusi. No
ranking_options OpenAI.RankingOptions No
└hybrid_search OpenAI.HybridSearchOptions Pesi che controllano il modo in cui la fusione tra rango reciproco bilancia le corrispondenze di incorporamento semantico e le corrispondenze di parole chiave sparse quando la ricerca ibrida è abilitata. No
└* ranker OpenAI.RankerVersionType Il ranker da usare per la ricerca dei file. No
└score_threshold Numero La soglia di punteggio per la ricerca file, un numero compreso tra 0 e 1. I numeri più vicini a 1 cercheranno di restituire solo i risultati più rilevanti, ma potrebbero restituire meno risultati. No
digitare Enum Il tipo dello strumento di ricerca file. Sempre file_search.
Valori possibili: file_search
vector_store_ids matrice di stringhe Gli ID dei vettori memorizzano per la ricerca.

OpenAI.FileSearchToolCallResults

Nome Digitare Descrizione Obbligatorio Predefinito
Attributi OpenAI.VectorStoreFileAttributes o null No
File_id Stringa No
Filename Stringa No
Punteggio Numero No
Testo Stringa No

OpenAI.Filters

Tipo: OpenAI.ComparisonFilter o OpenAI.CompoundFilter

OpenAI.FineTuneDPOHyperparameters

Iperparametri usati per il processo di ottimizzazione del dpo.

Nome Digitare Descrizione Obbligatorio Predefinito
batch_size stringa o integer Numero di esempi in ogni batch. Una dimensione batch maggiore indica che i parametri del modello vengono aggiornati meno frequentemente, ma con varianza inferiore. No
Beta stringa o numero Valore beta per il metodo DPO. Un valore beta più alto aumenterà il peso della penalità tra il criterio e il modello di riferimento. No
learning_rate_multiplier stringa o numero Fattore di ridimensionamento per la frequenza di apprendimento. Una frequenza di apprendimento più piccola può essere utile per evitare l'overfitting. No
n_epochs stringa o integer Il numero di epoche per cui addestrare il modello. Un'epoca si riferisce a un intero ciclo attraverso il dataset di addestramento. No

OpenAI.FineTuneDPOMethod

Configurazione per il metodo di ottimizzazione del dpo.

Nome Digitare Descrizione Obbligatorio Predefinito
iperparametri OpenAI.FineTuneDPOHyperparameters Iperparametri usati per il processo di ottimizzazione del dpo. No

OpenAI.FineTuneMethod

Metodo utilizzato per l'ottimizzazione.

Nome Digitare Descrizione Obbligatorio Predefinito
Dpo OpenAI.FineTuneDPOMethod Configurazione per il metodo di ottimizzazione del dpo. No
Rinforzo AzureFineTuneReinforcementMethod No
Sorvegliato OpenAI.FineTuneSupervisedMethod Configurazione per il metodo di ottimizzazione con supervisione. No
digitare Enum Tipo di metodo. supervisedÈ , dpoo reinforcement.
Valori possibili: supervised, dpo, reinforcement

OpenAI.FineTuneReinforcementHyperparameters

Iperparametri usati per il processo di ottimizzazione dell'ottimizzazione per rinforzo.

Nome Digitare Descrizione Obbligatorio Predefinito
batch_size stringa o integer Numero di esempi in ogni batch. Una dimensione batch maggiore indica che i parametri del modello vengono aggiornati meno frequentemente, ma con varianza inferiore. No
compute_multiplier stringa o numero Moltiplicatore per la quantità di calcolo usata per esplorare lo spazio di ricerca durante il training. No
eval_interval stringa o integer Numero di passaggi di training tra le esecuzioni di valutazione. No
eval_samples stringa o integer Numero di campioni di valutazione da generare per ogni passaggio di training. No
learning_rate_multiplier stringa o numero Fattore di ridimensionamento per la frequenza di apprendimento. Una frequenza di apprendimento più piccola può essere utile per evitare l'overfitting. No
n_epochs stringa o integer Il numero di epoche per cui addestrare il modello. Un'epoca si riferisce a un intero ciclo attraverso il dataset di addestramento. No
reasoning_effort Enum Livello di sforzo di ragionamento.
Valori possibili: default, low, medium, high
No

OpenAI.FineTuneSupervisedHyperparameters

Iperparametri usati per il processo di ottimizzazione.

Nome Digitare Descrizione Obbligatorio Predefinito
batch_size stringa o integer Numero di esempi in ogni batch. Una dimensione batch maggiore indica che i parametri del modello vengono aggiornati meno frequentemente, ma con varianza inferiore. No
learning_rate_multiplier stringa o numero Fattore di ridimensionamento per la frequenza di apprendimento. Una frequenza di apprendimento più piccola può essere utile per evitare l'overfitting. No
n_epochs stringa o integer Il numero di epoche per cui addestrare il modello. Un'epoca si riferisce a un intero ciclo attraverso il dataset di addestramento. No

OpenAI.FineTuneSupervisedMethod

Configurazione per il metodo di ottimizzazione con supervisione.

Nome Digitare Descrizione Obbligatorio Predefinito
iperparametri OpenAI.FineTuneSupervisedHyperparameters Iperparametri usati per il processo di ottimizzazione. No

OpenAI.FineTuningCheckpointPermission

L'oggetto checkpoint.permission rappresenta un'autorizzazione per un checkpoint del modello ottimizzato.

Nome Digitare Descrizione Obbligatorio Predefinito
created_at Intero Timestamp Unix (in secondi) per il momento in cui è stata creata l'autorizzazione.
Id Stringa Identificatore di autorizzazione a cui è possibile fare riferimento negli endpoint API.
Oggetto Enum Tipo di oggetto, che è sempre "checkpoint.permission".
Valori possibili: checkpoint.permission
project_id Stringa Identificatore del progetto per cui è destinata l'autorizzazione.

OpenAI.FineTuningIntegration

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Tipo di integrazione abilitata per il processo di ottimizzazione
Valori possibili: wandb
wandb OpenAI.FineTuningIntegrationWandb
Entità └* stringa o null No
└> nome stringa o null No
Progetto └* Stringa
└* tag matrice di stringhe No

OpenAI.FineTuningIntegrationWandb

Nome Digitare Descrizione Obbligatorio Predefinito
Entità stringa o null No
Nome stringa o null No
Progetto Stringa
Tag matrice di stringhe No

OpenAI.FineTuningJob

L'oggetto fine_tuning.job rappresenta un processo di ottimizzazione che è stato creato tramite l'API.

Nome Digitare Descrizione Obbligatorio Predefinito
created_at Intero Timestamp Unix (in secondi) per il momento in cui è stato creato il processo di ottimizzazione.
Errore OpenAI.FineTuningJobError o null
estimated_finish stringa o null No
fine_tuned_model stringa o null
finished_at stringa o null
iperparametri OpenAI.FineTuningJobHyperparameters
└batch_size string o integer o null No Automatico
└learning_rate_multiplier stringa o numero No
└n_epochs stringa o integer No Automatico
Id Stringa Identificatore dell'oggetto a cui è possibile fare riferimento negli endpoint API.
Integrazioni matrice di OpenAI.FineTuningIntegration o null No
Metadati OpenAI.Metadata o Null No
Metodo OpenAI.FineTuneMethod Metodo utilizzato per l'ottimizzazione. No
Modello Stringa Modello di base ottimizzato.
Oggetto Enum Tipo di oggetto, che è sempre "fine_tuning.job".
Valori possibili: fine_tuning.job
organization_id Stringa Organizzazione proprietaria del processo di ottimizzazione.
result_files matrice di stringhe ID file di risultati compilati per il processo di ottimizzazione. È possibile recuperare i risultati con l'API Files.
Seme Intero Il seme usato per il lavoro di messa a punto.
Stato Enum Stato corrente del processo di ottimizzazione, che può essere validating_files, queuedrunningsucceededfailedo .cancelled
Valori possibili: validating_files, queued, running, succeeded, failed, cancelled
trained_tokens integer o null
training_file Stringa ID file utilizzato per il training. È possibile recuperare i dati di training con l'API Files.
validation_file stringa o null

OpenAI.FineTuningJobCheckpoint

L'oggetto fine_tuning.job.checkpoint rappresenta un checkpoint del modello per un processo di ottimizzazione pronto per l'uso.

Nome Digitare Descrizione Obbligatorio Predefinito
created_at Intero Il timestamp Unix (in secondi) indica quando il checkpoint è stato creato.
fine_tuned_model_checkpoint Stringa Il nome del modello di checkpoint fine-tuned che viene creato.
fine_tuning_job_id Stringa Il nome del lavoro di messa a punto da cui è stato creato questo checkpoint.
Id Stringa Identificatore del checkpoint, a cui è possibile fare riferimento negli endpoint API.
Metriche OpenAI.FineTuningJobCheckpointMetrics
└full_valid_loss Numero No
└full_valid_mean_token_accuracy Numero No
└* passaggio Numero No
└train_loss Numero No
└train_mean_token_accuracy Numero No
└valid_loss Numero No
└valid_mean_token_accuracy Numero No
Oggetto Enum Tipo di oggetto, che è sempre "fine_tuning.job.checkpoint".
Valori possibili: fine_tuning.job.checkpoint
step_number Intero Il numero di passo a cui è stato creato il checkpoint.

OpenAI.FineTuningJobCheckpointMetrics

Nome Digitare Descrizione Obbligatorio Predefinito
full_valid_loss Numero No
full_valid_mean_token_accuracy Numero No
Passo Numero No
train_loss Numero No
train_mean_token_accuracy Numero No
valid_loss Numero No
valid_mean_token_accuracy Numero No

OpenAI.FineTuningJobError

Nome Digitare Descrizione Obbligatorio Predefinito
Codice Stringa
Messaggio Stringa
Param stringa o null

OpenAI.FineTuningJobEvent

Oggetto evento processo di ottimizzazione

Nome Digitare Descrizione Obbligatorio Predefinito
created_at Intero Timestamp Unix (in secondi) per il momento in cui è stato creato il processo di ottimizzazione.
Dati OpenAI.FineTuningJobEventData No
Id Stringa Identificatore dell'oggetto.
Livello Enum Livello di log dell'evento.
Valori possibili: info, warn, error
Messaggio Stringa Messaggio dell'evento.
Oggetto Enum Tipo di oggetto, che è sempre "fine_tuning.job.event".
Valori possibili: fine_tuning.job.event
digitare Enum Tipo di evento.
Valori possibili: message, metrics
No

OpenAI.FineTuningJobEventData

Tipo: oggetto

OpenAI.FineTuningJobHyperparameters

Nome Digitare Descrizione Obbligatorio Predefinito
batch_size string o integer o null No
learning_rate_multiplier stringa o numero No
n_epochs stringa o integer No

OpenAI.FunctionAndCustomToolCallOutput

Discriminare per OpenAI.FunctionAndCustomToolCallOutput

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
input_text OpenAI.FunctionAndCustomToolCallOutputInputTextContent
input_image OpenAI.FunctionAndCustomToolCallOutputInputImageContent
input_file OpenAI.FunctionAndCustomToolCallOutputInputFileContent
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.FunctionAndCustomToolCallOutputType

OpenAI.FunctionAndCustomToolCallOutputInputFileContent

Un input file nel modello.

Nome Digitare Descrizione Obbligatorio Predefinito
file_data Stringa Il contenuto del file da inviare al modello. No
File_id stringa o null No
file_url Stringa URL del file da inviare al modello. No
Filename Stringa Il nome del file da inviare al modello. No
digitare Enum Il tipo dell'elemento di input. Sempre input_file.
Valori possibili: input_file

OpenAI.FunctionAndCustomToolCallOutputInputImageContent

Un input immagine al modello. Informazioni sugli input delle immagini.

Nome Digitare Descrizione Obbligatorio Predefinito
Dettaglio OpenAI.ImageDetail
File_id stringa o null No
image_url stringa o null No
digitare Enum Il tipo dell'elemento di input. Sempre input_image.
Valori possibili: input_image

OpenAI.FunctionAndCustomToolCallOutputInputTextContent

Un input testuale al modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Il testo inserito nel modello.
digitare Enum Il tipo dell'elemento di input. Sempre input_text.
Valori possibili: input_text

OpenAI.FunctionAndCustomToolCallOutputType

Proprietà Valore
Digitare Stringa
Valori input_text
input_image
input_file

OpenAI.FunctionObject

Nome Digitare Descrizione Obbligatorio Predefinito
Descrizione Stringa Una descrizione di ciò che fa la funzione, usata dal modello per scegliere quando e come chiamarla. No
Nome Stringa Il nome della funzione da chiamare. Devono essere dalla a-z, dalla A-Z, da 0 a 9, oppure contenere sottolineamenti e trattini, con una lunghezza massima di 64.
Parametri OpenAI.FunctionParameters I parametri che le funzioni accettano, descritti come un oggetto JSON Schema. Vedere la guida per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato.
Omettere parameters definisce una funzione con una lista di parametri vuota.
No
Rigorosa booleano o null No

OpenAI.FunctionParameters

I parametri che le funzioni accettano, descritti come un oggetto JSON Schema. Vedere la guida per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato. Omettere parameters definisce una funzione con una lista di parametri vuota.

Tipo: oggetto

OpenAI.FunctionShellAction

Eseguire un comando shell.

Nome Digitare Descrizione Obbligatorio Predefinito
Comandi matrice di stringhe
max_output_length integer o null
timeout_ms integer o null

OpenAI.FunctionShellCallOutputContent

Contenuto di un output di chiamata dello strumento shell generato.

Nome Digitare Descrizione Obbligatorio Predefinito
created_by Stringa Identificatore dell'attore che ha creato l'elemento. No
Risultato OpenAI.FunctionShellCallOutputOutcome Rappresenta un risultato di uscita (con un codice di uscita) o un risultato di timeout per un blocco di output della chiamata della shell.
Tipo └* OpenAI.FunctionShellCallOutputOutcomeType
Stderr Stringa Output degli errori standard acquisito.
Stdout Stringa Output standard acquisito.

OpenAI.FunctionShellCallOutputExitOutcome

Indica che i comandi della shell sono stati completati e restituiti un codice di uscita.

Nome Digitare Descrizione Obbligatorio Predefinito
exit_code Intero Uscire dal processo della shell.
digitare Enum Tipo di risultato. Sempre exit.
Valori possibili: exit

OpenAI.FunctionShellCallOutputOutcome

Rappresenta un risultato di uscita (con un codice di uscita) o un risultato di timeout per un blocco di output della chiamata della shell.

Discriminare per OpenAI.FunctionShellCallOutputOutcome

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
timeout OpenAI.FunctionShellCallOutputTimeoutOutcome
exit OpenAI.FunctionShellCallOutputExitOutcome
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.FunctionShellCallOutputOutcomeType

OpenAI.FunctionShellCallOutputOutcomeType

Proprietà Valore
Digitare Stringa
Valori timeout
exit

OpenAI.FunctionShellCallOutputTimeoutOutcome

Indica che la chiamata della shell ha superato il limite di tempo configurato.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Tipo di risultato. Sempre timeout.
Valori possibili: timeout

OpenAI.FunctionShellToolParam

Strumento che consente al modello di eseguire comandi della shell.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Tipo dello strumento shell. Sempre shell.
Valori possibili: shell

OpenAI.FunctionTool

Definisce una funzione nel proprio codice che il modello può scegliere di chiamare.

Nome Digitare Descrizione Obbligatorio Predefinito
Descrizione stringa o null No
Nome Stringa Il nome della funzione da chiamare.
Parametri oggetto o null
Rigorosa booleano o null
digitare Enum Il tipo di strumento funzionale. Sempre function.
Valori possibili: function

OpenAI.GraderMulti

Un oggetto MultiGrader combina l'output di più classificatori per produrre un singolo punteggio.

Nome Digitare Descrizione Obbligatorio Predefinito
calculate_output Stringa Formula per calcolare l'output in base ai risultati del grader.
Livellatrici OpenAI.GraderStringCheck o OpenAI.GraderTextSimilarity o OpenAI.GraderScoreModel o GraderEndpoint
Nome Stringa Il nome del correttore.
digitare Enum Il tipo di oggetto, che è sempre multi.
Valori possibili: multi

OpenAI.GraderPython

Oggetto PythonGrader che esegue uno script Python nell'input.

Nome Digitare Descrizione Obbligatorio Predefinito
image_tag Stringa Tag immagine da usare per lo script Python. No
Nome Stringa Il nome del correttore.
fonte Stringa Codice sorgente dello script Python.
digitare Enum Il tipo di oggetto, che è sempre python.
Valori possibili: python

OpenAI.GraderScoreModel

Un oggetto ScoreModelGrader che utilizza un modello per assegnare un punteggio all'input.

Nome Digitare Descrizione Obbligatorio Predefinito
Input matrice di OpenAI.EvalItem Messaggi di input valutati dal classificatore. Supporta blocchi di testo, testo di output, immagine di input e contenuto audio di input e può includere stringhe modello.
Modello Stringa Il modello da utilizzare per la valutazione.
Nome Stringa Il nome del correttore.
Gamma matrice di numeri La gamma della partitura. Di default è [0, 1]. No
sampling_params OpenAI.EvalGraderScoreModelSamplingParams No
└max_completions_tokens integer o null No
└reasoning_effort OpenAI.ReasoningEffort Vincola lo sforzo sul ragionamento per
ragionamento dei modelli.
I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
- gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.
- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.
- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.
- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max.
No
└* valore di inizializzazione integer o null No
└* temperatura number o null No
└top_p number o null No 1
digitare Enum Il tipo di oggetto, che è sempre score_model.
Valori possibili: score_model

OpenAI.GraderStringCheck

Un oggetto StringCheckGrader che effettua un confronto di stringhe tra input e riferimento utilizzando un'operazione specificata.

Nome Digitare Descrizione Obbligatorio Predefinito
Input Stringa Il testo di input. Questo può includere stringhe template.
Nome Stringa Il nome del correttore.
Operazione Enum L'operazione di controllo stringhe da eseguire. Uno di eq, ne, like, o ilike.
Valori possibili: eq, ne, like, ilike
Riferimento Stringa Il testo di riferimento. Questo può includere stringhe template.
digitare Enum Il tipo di oggetto, che è sempre string_check.
Valori possibili: string_check

OpenAI.GraderTextSimilarity

Un oggetto TextSimilarityGrader che valuta il testo in base a metriche di similarità.

Nome Digitare Descrizione Obbligatorio Predefinito
evaluation_metric Enum La metrica di valutazione da utilizzare. Uno di cosine, fuzzy_match, bleu, ,
gleu, meteor, rouge_1, rouge_2rouge_3, rouge_4, , rouge_5
o rouge_l.
Valori possibili: cosine, fuzzy_matchbleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
Input Stringa Il testo viene valutato.
Nome Stringa Il nome del correttore.
Riferimento Stringa Il testo è stato valutato.
digitare Enum Il tipo di correttore.
Valori possibili: text_similarity

OpenAI.GrammarSyntax1

Proprietà Valore
Digitare Stringa
Valori lark
regex

OpenAI.HybridSearchOptions

Nome Digitare Descrizione Obbligatorio Predefinito
embedding_weight Numero Peso dell'incorporamento nella fusione di rango reciproca.
text_weight Numero Peso del testo nella fusione di rango reciproco.

OpenAI.ImageDetail

Proprietà Valore
Digitare Stringa
Valori low
high
auto

OpenAI.ImageGenTool

Strumento che genera immagini usando i modelli di immagine GPT.

Modelli validi:

gpt-image-1
gpt-image-1-mini
gpt-image-2
Nome Digitare Descrizione Obbligatorio Predefinito
Priorità bassa Enum Tipo di sfondo per l'immagine generata. Uno di transparent,
opaque autoo . Impostazione predefinita: auto.
Valori possibili: transparent, opaque, auto
No
input_fidelity OpenAI.InputFidelity o null No
input_image_mask OpenAI.ImageGenToolInputImageMask No
└file_id Stringa No
└image_url Stringa No
Modello string (vedere modelli validi di seguito) No
Moderazione Enum Livello di moderazione per l'immagine generata. Impostazione predefinita: auto.
Valori possibili: auto, low
No
output_compression Intero Livello di compressione per l'immagine di output. Impostazione predefinita: 100.
Vincoli: min: 0, max: 100
No 100
output_format Enum Formato di output dell'immagine generata. Uno di png, webpo
jpeg. Impostazione predefinita: png.
Valori possibili: png, webp, jpeg
No
partial_images Intero Numero di immagini parziali da generare in modalità di streaming, da 0 (valore predefinito) a 3.
Vincoli: min: 0, max: 3
No
Qualità Enum Qualità dell'immagine generata. Uno di low, medium, high, ,
o auto. Impostazione predefinita: auto.
Valori possibili: low, medium, high, auto
No
Dimensione Enum Dimensioni dell'immagine generata. Uno di 1024x1024, 1024x1536,
1536x1024 autoo . Impostazione predefinita: auto.
Valori possibili: 1024x1024, 1024x1536, 1536x1024, auto
No
digitare Enum Tipo dello strumento di generazione di immagini. Sempre image_generation.
Valori possibili: image_generation

OpenAI.ImageGenToolInputImageMask

Nome Digitare Descrizione Obbligatorio Predefinito
File_id Stringa No
image_url Stringa No

OpenAI.IncludeEnum

Specificare dati di output aggiuntivi da includere nella risposta del modello. I valori attualmente supportati sono:

  • web_search_call.action.sources: includere le origini della chiamata dello strumento di ricerca Web.
  • code_interpreter_call.outputs: include gli output dell'esecuzione del codice Python negli elementi di chiamata dello strumento dell'interprete del codice.
  • computer_call_output.output.image_url: Includere gli URL delle immagini dall'output della chiamata computer.
  • file_search_call.results: Includi i risultati della ricerca della chiamata dello strumento di ricerca file.
  • message.input_image.image_url: Includere gli URL delle immagini dal messaggio di input.
  • message.output_text.logprobs: includere logprobs con messaggi di assistente.
  • reasoning.encrypted_content: include una versione crittografata dei token di ragionamento negli output degli elementi di ragionamento. Ciò consente di usare gli elementi di ragionamento nelle conversazioni a più turni quando si usa l'API Risposte senza stato (ad esempio quando il store parametro è impostato su falseo quando un'organizzazione viene registrata nel programma di conservazione dei dati zero).
Proprietà Valore
Descrizione Specificare dati di output aggiuntivi da includere nella risposta del modello. I valori attualmente supportati sono:
  • web_search_call.action.sources: includere le origini della chiamata dello strumento di ricerca Web.
  • code_interpreter_call.outputs: include gli output dell'esecuzione del codice Python negli elementi di chiamata dello strumento dell'interprete del codice.
  • computer_call_output.output.image_url: Includere gli URL delle immagini dall'output della chiamata computer.
  • file_search_call.results: Includi i risultati della ricerca della chiamata dello strumento di ricerca file.
  • message.input_image.image_url: Includere gli URL delle immagini dal messaggio di input.
  • message.output_text.logprobs: includere logprobs con messaggi di assistente.
  • reasoning.encrypted_content: include una versione crittografata dei token di ragionamento negli output degli elementi di ragionamento. Ciò consente di usare gli elementi di ragionamento nelle conversazioni a più turni quando si usa l'API Risposte senza stato (ad esempio quando il store parametro è impostato su falseo quando un'organizzazione viene registrata nel programma di conservazione dei dati zero). | | Tipo | string | | Valori | file_search_call.results
    web_search_call.results
    web_search_call.action.sources
    message.input_image.image_url
    computer_call_output.output.image_url
    code_interpreter_call.outputs
    reasoning.encrypted_content
    message.output_text.logprobs |

OpenAI.InputAudio

Un ingresso audio al modello.

Nome Digitare Descrizione Obbligatorio Predefinito
input_audio OpenAI.InputAudioInputAudio
digitare Enum Il tipo dell'elemento di input. Sempre input_audio.
Valori possibili: input_audio

OpenAI.InputAudioInputAudio

Nome Digitare Descrizione Obbligatorio Predefinito
Dati Stringa
Formato Enum
Valori possibili: mp3, wav

OpenAI.InputContent

Discriminare per OpenAI.InputContent

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
input_text OpenAI.InputContentInputTextContent
input_image OpenAI.InputContentInputImageContent
input_file OpenAI.InputContentInputFileContent
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.InputContentType

OpenAI.InputContentInputFileContent

Un input file nel modello.

Nome Digitare Descrizione Obbligatorio Predefinito
file_data Stringa Il contenuto del file da inviare al modello. No
File_id stringa o null No
file_url Stringa URL del file da inviare al modello. No
Filename Stringa Il nome del file da inviare al modello. No
digitare Enum Il tipo dell'elemento di input. Sempre input_file.
Valori possibili: input_file

OpenAI.InputContentInputImageContent

Un input immagine al modello. Informazioni sugli input delle immagini.

Nome Digitare Descrizione Obbligatorio Predefinito
Dettaglio OpenAI.ImageDetail
File_id stringa o null No
image_url stringa o null No
digitare Enum Il tipo dell'elemento di input. Sempre input_image.
Valori possibili: input_image

OpenAI.InputContentInputTextContent

Un input testuale al modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Il testo inserito nel modello.
digitare Enum Il tipo dell'elemento di input. Sempre input_text.
Valori possibili: input_text

OpenAI.InputContentType

Proprietà Valore
Digitare Stringa
Valori input_text
input_image
input_file

OpenAI.InputFidelity

Controlla quanto sforzo il modello applicherà per adattarsi allo stile e alle caratteristiche, soprattutto ai tratti facciali, delle immagini di input. Questo parametro è supportato solo per gpt-image-1 e gpt-image-2. Non supportato per gpt-image-1-mini. Supporti high e low. Di default è low.

Proprietà Valore
Digitare Stringa
Valori high
low

OpenAI.InputFileContent

Un input file nel modello.

Nome Digitare Descrizione Obbligatorio Predefinito
file_data Stringa Il contenuto del file da inviare al modello. No
File_id stringa o null No
file_url Stringa URL del file da inviare al modello. No
Filename Stringa Il nome del file da inviare al modello. No
digitare Enum Il tipo dell'elemento di input. Sempre input_file.
Valori possibili: input_file

OpenAI.InputImageContent

Un input immagine al modello. Informazioni sugli input delle immagini.

Nome Digitare Descrizione Obbligatorio Predefinito
Dettaglio OpenAI.ImageDetail
File_id stringa o null No
image_url stringa o null No
digitare Enum Il tipo dell'elemento di input. Sempre input_image.
Valori possibili: input_image

OpenAI.InputItem

Discriminare per OpenAI.InputItem

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
message OpenAI.EasyInputMessage
item_reference OpenAI.ItemReferenceParam
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.InputItemType

OpenAI.InputItemType

Proprietà Valore
Digitare Stringa
Valori message
item_reference

OpenAI.InputMessageContentList

Un elenco di uno o più elementi di input al modello, contenenti diversi tipi di contenuto.

Matrice di: OpenAI.InputContent

OpenAI.InputMessageResource

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto OpenAI.InputMessageContentList Elenco di uno o più elementi di input per il modello, contenente contenuto diverso
Tipi.
Id Stringa L'ID unico dell'input del messaggio.
Ruolo Enum Il ruolo dell'input del messaggio. Uno di user, system, oppure developer.
Valori possibili: user, system, developer
Stato Enum Lo stato dell'oggetto. Uno di in_progress, completedo
incomplete. Popolati quando gli elementi vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
No
digitare Enum Il tipo di input del messaggio. Imposta sempre su message.
Valori possibili: message

OpenAI.InputParam

Input di testo, immagine o file al modello, utilizzati per generare una risposta. Ulteriori informazioni:

Tipo: stringa o matrice di OpenAI.InputItem

Input di testo, immagine o file al modello, utilizzati per generare una risposta. Ulteriori informazioni:

OpenAI.InputTextContent

Un input testuale al modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Il testo inserito nel modello.
digitare Enum Il tipo dell'elemento di input. Sempre input_text.
Valori possibili: input_text

OpenAI.ItemReferenceParam

Un identificatore interno per un oggetto da riferire.

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa L'ID dell'oggetto da consultare.
digitare Enum Il tipo di oggetto da consultare. Sempre item_reference.
Valori possibili: item_reference

OpenAI.ItemResource

Elemento di contenuto usato per generare una risposta.

Discriminatorio per OpenAI.ItemResource

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
message OpenAI.InputMessageResource
output_message OpenAI.ItemResourceOutputMessage
file_search_call OpenAI.ItemResourceFileSearchToolCall
computer_call OpenAI.ItemResourceComputerToolCall
computer_call_output OpenAI.ItemResourceComputerToolCallOutputResource
web_search_call OpenAI.ItemResourceWebSearchToolCall
function_call OpenAI.ItemResourceFunctionToolCallResource
function_call_output OpenAI.ItemResourceFunctionToolCallOutputResource
image_generation_call OpenAI.ItemResourceImageGenToolCall
code_interpreter_call OpenAI.ItemResourceCodeInterpreterToolCall
local_shell_call OpenAI.ItemResourceLocalShellToolCall
local_shell_call_output OpenAI.ItemResourceLocalShellToolCallOutput
shell_call OpenAI.ItemResourceFunctionShellCall
shell_call_output OpenAI.ItemResourceFunctionShellCallOutput
apply_patch_call OpenAI.ItemResourceApplyPatchToolCall
apply_patch_call_output OpenAI.ItemResourceApplyPatchToolCallOutput
mcp_list_tools OpenAI.ItemResourceMcpListTools
mcp_approval_request OpenAI.ItemResourceMcpApprovalRequest
mcp_approval_response OpenAI.ItemResourceMcpApprovalResponseResource
mcp_call OpenAI.ItemResourceMcpToolCall
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.ItemResourceType

OpenAI.ItemResourceApplyPatchToolCall

Chiamata dello strumento che applica differenze di file creando, eliminando o aggiornando i file.

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa ID univoco della chiamata dello strumento applica patch generata dal modello.
created_by Stringa ID dell'entità che ha creato questa chiamata allo strumento. No
Id Stringa ID univoco della chiamata dello strumento apply patch. Popolata quando questo elemento viene restituito tramite API.
Operazione OpenAI.ApplyPatchFileOperation Una delle operazioni di create_file, delete_file o update_file applicate tramite apply_patch.
Tipo └* OpenAI.ApplyPatchFileOperationType
Stato OpenAI.ApplyPatchCallStatus
digitare Enum Tipo dell'elemento. Sempre apply_patch_call.
Valori possibili: apply_patch_call

OpenAI.ItemResourceApplyPatchToolCallOutput

Output generato da una chiamata di applicazione dello strumento patch.

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa ID univoco della chiamata dello strumento applica patch generata dal modello.
created_by Stringa ID dell'entità che ha creato l'output della chiamata dello strumento. No
Id Stringa ID univoco dell'output della chiamata dello strumento patch apply. Popolata quando questo elemento viene restituito tramite API.
Output stringa o null No
Stato OpenAI.ApplyPatchCallOutputStatus
digitare Enum Tipo dell'elemento. Sempre apply_patch_call_output.
Valori possibili: apply_patch_call_output

OpenAI.ItemResourceCodeInterpreterToolCall

Una chiamata a uno strumento per eseguire codice.

Nome Digitare Descrizione Obbligatorio Predefinito
Codice stringa o null
container_id Stringa ID del contenitore usato per eseguire il codice.
Id Stringa L'ID univoco dello strumento interprete del codice chiama.
Uscite matrice di OpenAI.CodeInterpreterOutputLogs o OpenAI.CodeInterpreterOutputImage o null
Stato Enum Lo stato dello strumento di interprete del codice chiamato. I valori validi sono in_progress, completedincomplete, interpreting, e failed.
Valori possibili: in_progress, completed, incomplete, interpreting, failed
digitare Enum Il tipo che chiama lo strumento dell'interprete del codice. Sempre code_interpreter_call.
Valori possibili: code_interpreter_call

OpenAI.ItemResourceComputerToolCall

Un richiamo a uno strumento per l'uso del computer. Per altre informazioni, vedere la guida all'uso del computer .

Nome Digitare Descrizione Obbligatorio Predefinito
Azione OpenAI.ComputerAction
call_id Stringa Un identificatore usato quando si risponde alla chiamata dello strumento con output.
Id Stringa L'ID unico della chiamata computerizzata.
pending_safety_checks matrice di OpenAI.ComputerCallSafetyCheckParam I controlli di sicurezza in attesa per la chiamata al computer.
Stato Enum Lo stato dell'oggetto. Uno di in_progress, completedo
incomplete. Popolati quando gli elementi vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
digitare Enum Il tipo di chiamata al computer. Sempre computer_call.
Valori possibili: computer_call

OpenAI.ItemResourceComputerToolCallOutputResource

Nome Digitare Descrizione Obbligatorio Predefinito
acknowledged_safety_checks matrice di OpenAI.ComputerCallSafetyCheckParam I controlli di sicurezza segnalati dall'API che sono stati riconosciuti dal
Sviluppatore.
No
call_id Stringa L'ID della chiamata dello strumento informatico che ha prodotto l'output.
Id Stringa L'ID dell'output della chiamata dello strumento informatico. No
Output OpenAI.ComputerScreenshotImage Un'immagine screenshot del computer usata con lo strumento di uso del computer.
Stato Enum Lo stato del messaggio inserito. Uno di in_progress, completedo
incomplete. Popolati quando gli input input vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
No
digitare Enum Il tipo di output della chiamata dello strumento informatico. Sempre computer_call_output.
Valori possibili: computer_call_output

OpenAI.ItemResourceFileSearchToolCall

I risultati di uno strumento di ricerca file chiamano. Per altre informazioni, vedere la guida alla ricerca di file .

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa L'ID univoco dello strumento di ricerca file chiama.
Query matrice di stringhe Le query usate per cercare file.
Risultati matrice di OpenAI.FileSearchToolCallResults o null No
Stato Enum Lo stato dello strumento di ricerca file chiamato. Uno di in_progress,
searching, incomplete o failed,
Valori possibili: in_progress, searching, completed, incomplete, failed
digitare Enum Il tipo di chiamata dello strumento di ricerca file. Sempre file_search_call.
Valori possibili: file_search_call

OpenAI.ItemResourceFunctionShellCall

Chiamata dello strumento che esegue uno o più comandi della shell in un ambiente gestito.

Nome Digitare Descrizione Obbligatorio Predefinito
Azione OpenAI.FunctionShellAction Eseguire un comando shell.
Comandi └* matrice di stringhe
└max_output_length integer o null
└timeout_ms integer o null
call_id Stringa ID univoco della chiamata dello strumento shell generata dal modello.
created_by Stringa ID dell'entità che ha creato questa chiamata allo strumento. No
Id Stringa ID univoco della chiamata dello strumento shell. Popolata quando questo elemento viene restituito tramite API.
Stato OpenAI.LocalShellCallStatus
digitare Enum Tipo dell'elemento. Sempre shell_call.
Valori possibili: shell_call

OpenAI.ItemResourceFunctionShellCallOutput

Output di una chiamata dello strumento shell generata.

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa ID univoco della chiamata dello strumento shell generata dal modello.
created_by Stringa Identificatore dell'attore che ha creato l'elemento. No
Id Stringa ID univoco dell'output della chiamata della shell. Popolata quando questo elemento viene restituito tramite API.
max_output_length integer o null
Output matrice di OpenAI.FunctionShellCallOutputContent Matrice di contenuti di output delle chiamate shell
digitare Enum Tipo dell'output delle chiamate della shell. Sempre shell_call_output.
Valori possibili: shell_call_output

OpenAI.ItemResourceFunctionToolCallOutputResource

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa L'ID univoco della chiamata dello strumento funzionale generata dal modello.
Id Stringa L'ID unico dell'output della chiamata dello strumento funzionale. Popolato quando questo elemento
viene restituito tramite l'API.
No
Output stringa o matrice di OpenAI.FunctionAndCustomToolCallOutput Output della chiamata di funzione generata dal codice.
Può essere una stringa o un elenco di contenuto di output.
Stato Enum Lo stato dell'oggetto. Uno di in_progress, completedo
incomplete. Popolati quando gli elementi vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
No
digitare Enum Il tipo di funzione chiama output dello strumento. Sempre function_call_output.
Valori possibili: function_call_output

OpenAI.ItemResourceFunctionToolCallResource

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa Una stringa JSON degli argomenti da passare alla funzione.
call_id Stringa L'ID univoco della chiamata dello strumento funzionale generata dal modello.
Id Stringa L'ID univoco dello strumento di funzione chiama. No
Nome Stringa Il nome della funzione da eseguire.
Stato Enum Lo stato dell'oggetto. Uno di in_progress, completedo
incomplete. Popolati quando gli elementi vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
No
digitare Enum Il tipo di chiamata dello strumento funzionale. Sempre function_call.
Valori possibili: function_call

OpenAI.ItemResourceImageGenToolCall

Richiesta di generazione di immagini effettuata dal modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa ID univoco della chiamata di generazione dell'immagine.
Risultato stringa o null
Stato Enum Stato della chiamata di generazione dell'immagine.
Valori possibili: in_progress, completed, generating, failed
digitare Enum Tipo della chiamata di generazione dell'immagine. Sempre image_generation_call.
Valori possibili: image_generation_call

OpenAI.ItemResourceLocalShellToolCall

Chiamata dello strumento per eseguire un comando nella shell locale.

Nome Digitare Descrizione Obbligatorio Predefinito
Azione OpenAI.LocalShellExecAction Eseguire un comando shell nel server.
call_id Stringa ID univoco della chiamata dello strumento shell locale generata dal modello.
Id Stringa ID univoco della chiamata della shell locale.
Stato Enum Stato della chiamata della shell locale.
Valori possibili: in_progress, completed, incomplete
digitare Enum Tipo di chiamata della shell locale. Sempre local_shell_call.
Valori possibili: local_shell_call

OpenAI.ItemResourceLocalShellToolCallOutput

Output di una chiamata allo strumento shell locale.

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa ID univoco della chiamata dello strumento shell locale generata dal modello.
Output Stringa Stringa JSON dell'output della chiamata allo strumento shell locale.
Stato stringa o null No
digitare Enum Tipo dell'output delle chiamate dello strumento shell locale. Sempre local_shell_call_output.
Valori possibili: local_shell_call_output

OpenAI.ItemResourceMcpApprovalRequest

Richiesta di approvazione umana di una chiamata a uno strumento.

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa Stringa JSON di argomenti per lo strumento.
Id Stringa ID univoco della richiesta di approvazione.
Nome Stringa Nome dello strumento da eseguire.
server_label Stringa Etichetta del server MCP che effettua la richiesta.
digitare Enum Tipo dell'elemento. Sempre mcp_approval_request.
Valori possibili: mcp_approval_request

OpenAI.ItemResourceMcpApprovalResponseResource

Risposta a una richiesta di approvazione MCP.

Nome Digitare Descrizione Obbligatorio Predefinito
approval_request_id Stringa ID della richiesta di approvazione a cui viene inviata la risposta.
Approvare Boolean Indica se la richiesta è stata approvata.
Id Stringa ID univoco della risposta di approvazione
Motivo stringa o null No
digitare Enum Tipo dell'elemento. Sempre mcp_approval_response.
Valori possibili: mcp_approval_response

OpenAI.ItemResourceMcpListTools

Elenco di strumenti disponibili in un server MCP.

Nome Digitare Descrizione Obbligatorio Predefinito
Errore stringa o null No
Id Stringa ID univoco dell'elenco.
server_label Stringa Etichetta del server MCP.
Strumenti matrice di OpenAI.MCPListToolsTool Strumenti disponibili nel server.
digitare Enum Tipo dell'elemento. Sempre mcp_list_tools.
Valori possibili: mcp_list_tools

OpenAI.ItemResourceMcpToolCall

Chiamata di uno strumento in un server MCP.

Nome Digitare Descrizione Obbligatorio Predefinito
approval_request_id stringa o null No
Argomenti Stringa Stringa JSON degli argomenti passati allo strumento.
Errore stringa o null No
Id Stringa ID univoco della chiamata allo strumento.
Nome Stringa Nome dello strumento eseguito.
Output stringa o null No
server_label Stringa Etichetta del server MCP che esegue lo strumento.
Stato OpenAI.MCPToolCallStatus No
digitare Enum Tipo dell'elemento. Sempre mcp_call.
Valori possibili: mcp_call

OpenAI.ItemResourceOutputMessage

Un messaggio di output dal modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto matrice di OpenAI.OutputMessageContent Il contenuto del messaggio di output.
Id Stringa L'ID univoco del messaggio di output.
Ruolo Enum Il ruolo del messaggio di output. Sempre assistant.
Valori possibili: assistant
Stato Enum Lo stato del messaggio inserito. Uno di in_progress, completedo
incomplete. Popolati quando gli input input vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
digitare Enum Il tipo del messaggio di output. Sempre message.
Valori possibili: output_message

OpenAI.ItemResourceType

Proprietà Valore
Digitare Stringa
Valori message
output_message
file_search_call
computer_call
computer_call_output
web_search_call
function_call
function_call_output
image_generation_call
code_interpreter_call
local_shell_call
local_shell_call_output
shell_call
shell_call_output
apply_patch_call
apply_patch_call_output
mcp_list_tools
mcp_approval_request
mcp_approval_response
mcp_call

OpenAI.ItemResourceWebSearchToolCall

Risultati di una chiamata allo strumento di ricerca Web. Per altre informazioni, vedere la guida alla ricerca Web .

Nome Digitare Descrizione Obbligatorio Predefinito
Azione OpenAI.WebSearchActionSearch o OpenAI.WebSearchActionOpenPage o OpenAI.WebSearchActionFind Oggetto che descrive l'azione specifica eseguita in questa chiamata di ricerca Web.
Include informazioni dettagliate sul modo in cui il modello ha usato il Web (ricerca, open_page, ricerca).
Id Stringa ID univoco della chiamata dello strumento di ricerca Web.
Stato Enum Stato della chiamata dello strumento di ricerca Web.
Valori possibili: in_progress, searching, completed, failed
digitare Enum Tipo di chiamata dello strumento di ricerca Web. Sempre web_search_call.
Valori possibili: web_search_call

OpenAI.KeyPressAction

Una raccolta di pressioni di tasti che il modello vorrebbe eseguire.

Nome Digitare Descrizione Obbligatorio Predefinito
Chiavi matrice di stringhe La combinazione di tasti che il modello richiede di premere. Questa è una matrice di stringhe, ciascuna rappresenta una tonalità.
digitare Enum Specifica il tipo di evento. Per un'azione di pressione tastiera, questa proprietà è sempre impostata su keypress.
Valori possibili: keypress

OpenAI.ListBatchesResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.Batch
first_id Stringa No
has_more Boolean
last_id Stringa No
Oggetto Enum
Valori possibili: list

OpenAI.ListFilesResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.OpenAIFile
first_id Stringa
has_more Boolean
last_id Stringa
Oggetto Stringa

OpenAI.ListFineTuningCheckpointPermissionResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.FineTuningCheckpointPermission
first_id stringa o null No
has_more Boolean
last_id stringa o null No
Oggetto Enum
Valori possibili: list

OpenAI.ListFineTuningJobCheckpointsResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.FineTuningJobCheckpoint
first_id stringa o null No
has_more Boolean
last_id stringa o null No
Oggetto Enum
Valori possibili: list

OpenAI.ListFineTuningJobEventsResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.FineTuningJobEvent
has_more Boolean
Oggetto Enum
Valori possibili: list

OpenAI.ListMessagesResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.MessageObject
first_id Stringa
has_more Boolean
last_id Stringa
Oggetto Stringa

OpenAI.ListModelsResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.Model
Oggetto Enum
Valori possibili: list

OpenAI.ListPaginatedFineTuningJobsResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.FineTuningJob
has_more Boolean
Oggetto Enum
Valori possibili: list

OpenAI.ListRunStepsResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.RunStepObject
first_id Stringa
has_more Boolean
last_id Stringa
Oggetto Stringa

OpenAI.ListRunsResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.RunObject
first_id Stringa
has_more Boolean
last_id Stringa
Oggetto Stringa

OpenAI.ListVectorStoreFilesResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.VectorStoreFileObject
first_id Stringa
has_more Boolean
last_id Stringa
Oggetto Stringa

OpenAI.ListVectorStoresResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.VectorStoreObject
first_id Stringa
has_more Boolean
last_id Stringa
Oggetto Stringa

OpenAI.LocalShellCallStatus

Proprietà Valore
Digitare Stringa
Valori in_progress
completed
incomplete

OpenAI.LocalShellExecAction

Eseguire un comando shell nel server.

Nome Digitare Descrizione Obbligatorio Predefinito
Comando matrice di stringhe Comando da eseguire.
Env Oggetto Variabili di ambiente da impostare per il comando.
timeout_ms integer o null No
digitare Enum Tipo dell'azione della shell locale. Sempre exec.
Valori possibili: exec
Utente stringa o null No
working_directory stringa o null No

OpenAI.LocalShellToolParam

Strumento che consente al modello di eseguire comandi della shell in un ambiente locale.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Tipo dello strumento della shell locale. Sempre local_shell.
Valori possibili: local_shell

OpenAI.LogProb

Probabilità del log di un token.

Nome Digitare Descrizione Obbligatorio Predefinito
Byte matrice di numeri interi
logprob Numero
Token Stringa
top_logprobs matrice di OpenAI.TopLogProb

OpenAI.MCPListToolsTools

Strumento disponibile in un server MCP.

Nome Digitare Descrizione Obbligatorio Predefinito
Annotazioni OpenAI.MCPListToolsToolAnnotations o null No
Descrizione stringa o null No
input_schema OpenAI.MCPListToolsToolInputSchema
Nome Stringa Nome dello strumento.

OpenAI.MCPListToolsToolAnnotations

Tipo: oggetto

OpenAI.MCPListToolsToolInputSchema

Tipo: oggetto

OpenAI.MCPTool

Concedere al modello l'accesso a strumenti aggiuntivi tramite server MCP (Model Context Protocol) remoti. Altre informazioni su MCP.

Nome Digitare Descrizione Obbligatorio Predefinito
allowed_tools matrice di string o OpenAI.MCPToolFilter o null No
Autorizzazione Stringa Token di accesso OAuth che può essere usato con un server MCP remoto,
con un URL del server MCP personalizzato o un connettore di servizi. Applicazione
deve gestire il flusso di autorizzazione OAuth e fornire il token qui.
No
connector_id Enum Identificatore per i connettori del servizio, ad esempio quelli disponibili in ChatGPT. Uno dei
server_url o connector_id deve essere fornito. Altre informazioni sul servizio
connettori qui.
I valori attualmente supportati connector_id sono:
-Dropbox: connector_dropbox
-Gmail: connector_gmail
- Google Calendar: connector_googlecalendar
- Google Drive: connector_googledrive
- Microsoft Teams: connector_microsoftteams
- Calendario di Outlook: connector_outlookcalendar
- Posta elettronica di Outlook: connector_outlookemail
-Sharepoint: connector_sharepoint
Valori possibili: connector_dropbox, connector_gmail, connector_googlecalendar, connector_googledrive, connector_microsoftteams, connector_outlookcalendar, connector_outlookemail, connector_sharepoint
No
Intestazioni oggetto o null No
require_approval OpenAI.MCPToolRequireApproval o stringa o null No
server_description Stringa Descrizione facoltativa del server MCP, usata per fornire più contesto. No
server_label Stringa Etichetta per questo server MCP, usata per identificarla nelle chiamate degli strumenti.
server_url Stringa URL del server MCP. Uno di server_url o connector_id deve essere
Fornito.
No
digitare Enum Tipo dello strumento MCP. Sempre mcp.
Valori possibili: mcp

OpenAI.MCPToolCallStatus

Proprietà Valore
Digitare Stringa
Valori in_progress
completed
incomplete
calling
failed

OpenAI.MCPToolFilter

Oggetto filtro per specificare gli strumenti consentiti.

Nome Digitare Descrizione Obbligatorio Predefinito
Read_only Boolean Indica se uno strumento modifica o meno i dati o è di sola lettura. Se un oggetto
Il server MCP viene annotato con readOnlyHint,
corrisponderà a questo filtro.
No
tool_names matrice di stringhe Elenco dei nomi degli strumenti consentiti. No

OpenAI.MCPToolRequireApproval

Nome Digitare Descrizione Obbligatorio Predefinito
Sempre OpenAI.MCPToolFilter Oggetto filtro per specificare gli strumenti consentiti. No
Mai OpenAI.MCPToolFilter Oggetto filtro per specificare gli strumenti consentiti. No

OpenAI.MessageContent

Discriminare per OpenAI.MessageContent

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
image_url OpenAI.MessageContentImageUrlObject
text OpenAI.MessageContentTextObject
refusal OpenAI.MessageContentRefusalObject
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.MessageContentType

OpenAI.MessageContentImageFileObject

Fa riferimento a un file di immagine nel contenuto di un messaggio.

Nome Digitare Descrizione Obbligatorio Predefinito
image_file OpenAI.MessageContentImageFileObjectImageFile
digitare Enum Sempre image_file.
Valori possibili: image_file

OpenAI.MessageContentImageFileObjectImageFile

Nome Digitare Descrizione Obbligatorio Predefinito
Dettaglio Enum
Valori possibili: auto, low, high
No
File_id Stringa

OpenAI.MessageContentImageUrlObject

Fa riferimento a un URL di immagine nel contenuto di un messaggio.

Nome Digitare Descrizione Obbligatorio Predefinito
image_url OpenAI.MessageContentImageUrlObjectImageUrl
digitare Enum La parte del tipo di contenuto.
Valori possibili: image_url

OpenAI.MessageContentImageUrlObjectImageUrl

Nome Digitare Descrizione Obbligatorio Predefinito
Dettaglio Enum
Valori possibili: auto, low, high
No
Url Stringa

OpenAI.MessageContentRefusalObject

Contenuto di rifiuto generato dall'assistente.

Nome Digitare Descrizione Obbligatorio Predefinito
Rifiuto Stringa
digitare Enum Sempre refusal.
Valori possibili: refusal

OpenAI.MessageContentTextAnnotationsFileCitationObject

Una citazione all'interno del messaggio che indica una citazione specifica da un file specifico associato all'assistente o al messaggio. Generato quando l'assistente usa lo strumento "file_search" per cercare nei file.

Nome Digitare Descrizione Obbligatorio Predefinito
end_index Intero Vincoli: min: 0
file_citation OpenAI.MessageContentTextAnnotationsFileCitationObjectFileCitation
start_index Intero Vincoli: min: 0
Testo Stringa Il testo nel contenuto del messaggio che deve essere sostituito.
digitare Enum Sempre file_citation.
Valori possibili: file_citation

OpenAI.MessageContentTextAnnotationsFileCitationObjectFileCitation

Nome Digitare Descrizione Obbligatorio Predefinito
File_id Stringa

OpenAI.MessageContentTextAnnotationsFilePathObject

Un URL per il file generato quando l'assistente ha usato lo code_interpreter strumento per generare un file.

Nome Digitare Descrizione Obbligatorio Predefinito
end_index Intero Vincoli: min: 0
file_path OpenAI.MessageContentTextAnnotationsFilePathObjectFilePath
start_index Intero Vincoli: min: 0
Testo Stringa Il testo nel contenuto del messaggio che deve essere sostituito.
digitare Enum Sempre file_path.
Valori possibili: file_path

OpenAI.MessageContentTextAnnotationsFilePathObjectFilePath

Nome Digitare Descrizione Obbligatorio Predefinito
File_id Stringa

OpenAI.MessageContentTextObject

Il contenuto testuale che fa parte di un messaggio.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo OpenAI.MessageContentTextObjectTextText
digitare Enum Sempre text.
Valori possibili: text

OpenAI.MessageContentTextObjectTextText

Nome Digitare Descrizione Obbligatorio Predefinito
Annotazioni matrice di OpenAI.TextAnnotation
Valore Stringa

OpenAI.MessageContentType

Proprietà Valore
Digitare Stringa
Valori image_file
image_url
text
refusal

OpenAI.MessageObject

Rappresenta un messaggio all'interno di un thread.

Nome Digitare Descrizione Obbligatorio Predefinito
assistant_id stringa o null
Allegati matrice di OpenAI.MessageObjectAttachments o null
completed_at stringa o null
Contenuto matrice di OpenAI.MessageContent Il contenuto del messaggio è formato in un insieme di testo e/o immagini.
created_at Intero Il timestamp Unix (in secondi) indica quando il messaggio è stato creato.
Id Stringa L'identificatore, che può essere consultato negli endpoint API.
incomplete_at stringa o null
incomplete_details OpenAI.MessageObjectIncompleteDetails o null
Metadati OpenAI.Metadata o Null
Oggetto Enum Il tipo di oggetto, che è sempre thread.message.
Valori possibili: thread.message
Ruolo Enum L'entità che ha prodotto il messaggio. Uno di user oppure assistant.
Valori possibili: user, assistant
run_id stringa o null
Stato Enum Lo stato del messaggio, che può essere o in_progress, incomplete, oppure completed.
Valori possibili: in_progress, incomplete, completed
thread_id Stringa ID thread a cui appartiene il messaggio.

OpenAI.MessageObjectAttachments

Nome Digitare Descrizione Obbligatorio Predefinito
File_id Stringa No
Strumenti matrice di OpenAI.AssistantToolsCode o OpenAI.AssistantToolsFileSearchTypeOnly No

OpenAI.MessageObjectIncompleteDetails

Nome Digitare Descrizione Obbligatorio Predefinito
Motivo Enum
Valori possibili: content_filter, max_tokens, run_cancelled, run_expired, run_failed

OpenAI.MessageRequestContentTextObject

Il contenuto testuale che fa parte di un messaggio.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Contenuto di testo da inviare al modello
digitare Enum Sempre text.
Valori possibili: text

OpenAI.MessageRole

Proprietà Valore
Digitare Stringa
Valori unknown
user
assistant
system
critic
discriminator
developer
tool

OpenAI.MessageStatus

Proprietà Valore
Digitare Stringa
Valori in_progress
completed
incomplete

OpenAI.Metadata

Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard. I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri.

Tipo: oggetto

OpenAI.Model

Descrive un'offerta di modello OpenAI che può essere usata con l'API.

Nome Digitare Descrizione Obbligatorio Predefinito
Creato Intero Timestamp Unix (in secondi) al momento della creazione del modello.
Id Stringa Identificatore del modello, a cui è possibile fare riferimento negli endpoint API.
Oggetto Enum Tipo di oggetto, che è sempre "model".
Valori possibili: model
owned_by Stringa Organizzazione proprietaria del modello.

OpenAI.ModifyMessageRequest

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati OpenAI.Metadata o Null No

OpenAI.ModifyRunRequest

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati OpenAI.Metadata o Null No

OpenAI.ModifyThreadRequest

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati OpenAI.Metadata o Null No
tool_resources OpenAI.ModifyThreadRequestToolResources o null No

OpenAI.ModifyThreadRequestToolResources

Nome Digitare Descrizione Obbligatorio Predefinito
code_interpreter OpenAI.ModifyThreadRequestToolResourcesCodeInterpreter No
file_search OpenAI.ModifyThreadRequestToolResourcesFileSearch No

OpenAI.ModifyThreadRequestToolResourcesCodeInterpreter

Nome Digitare Descrizione Obbligatorio Predefinito
file_ids matrice di stringhe No

OpenAI.ModifyThreadRequestToolResourcesFileSearch

Nome Digitare Descrizione Obbligatorio Predefinito
vector_store_ids matrice di stringhe No

OpenAI.Move

Un'azione di movimento del topo.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Specifica il tipo di evento. Per un'azione di spostamento, questa proprietà è
sempre impostato su move.
Valori possibili: move
X Intero La coordinata x a cui spostarsi.
Y Intero La coordinata Y su cui spostarsi.

OpenAI.NoiseReductionType

Tipo di riduzione del rumore. near_field è per microfoni ravvicinati come le cuffie, è far_field per microfoni a campo lontano come laptop o microfoni di sala conferenze.

Proprietà Valore
Digitare Stringa
Valori near_field
far_field

OpenAI.OpenAIFile

L'oggetto File rappresenta un documento caricato in OpenAI.

Nome Digitare Descrizione Obbligatorio Predefinito
Byte Intero Dimensioni del file, in byte.
created_at Intero Timestamp Unix (in secondi) per il momento in cui è stato creato il file.
expires_at Intero Timestamp Unix (in secondi) per la scadenza del file. No
Filename Stringa Il nome del file.
Id Stringa Identificatore di file a cui è possibile fare riferimento negli endpoint API.
Oggetto Enum Il tipo di oggetto, che è sempre file.
Valori possibili: file
Scopo Enum Scopo previsto del file. I valori supportati sono assistants, assistants_output, batchbatch_output, fine-tune e fine-tune-results.
Valori possibili: assistants, assistants_output, batchbatch_output, fine-tune, , fine-tune-resultsevals
Stato Enum
Valori possibili: uploaded, pending, runningprocessed, error, , deletingdeleted
status_details stringa (deprecata) Deprecato. Per informazioni dettagliate sul motivo per cui una convalida del file di training di ottimizzazione non è riuscita, vedere il error campo in fine_tuning.job. No

OpenAI.OtherChunkingStrategyResponseParam

Questo viene restituito quando la strategia di schunking è sconosciuta. Tipicamente, ciò accade perché il file era indicizzato prima che il chunking_strategy concetto venisse introdotto nell'API.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Sempre other.
Valori possibili: other

OpenAI.OutputContent

Discriminare per OpenAI.OutputContent

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
output_text OpenAI.OutputContentOutputTextContent
refusal OpenAI.OutputContentRefusalContent
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.OutputContentType

OpenAI.OutputContentOutputTextContent

Un testo prodotto dal modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Annotazioni matrice di OpenAI.Annotation Le annotazioni dell'output del testo.
logprobs matrice di OpenAI.LogProb No
Testo Stringa Il testo prodotto dal modello.
digitare Enum Il tipo del testo in uscita. Sempre output_text.
Valori possibili: output_text

OpenAI.OutputContentRefusalContent

Un rifiuto da parte del modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Rifiuto Stringa La spiegazione del rifiuto dal modello.
digitare Enum Il tipo di rifiuto. Sempre refusal.
Valori possibili: refusal

OpenAI.OutputContentType

Proprietà Valore
Digitare Stringa
Valori output_text
refusal
reasoning_text

OpenAI.OutputItem

Discriminare per OpenAI.OutputItem

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
output_message OpenAI.OutputItemOutputMessage
file_search_call OpenAI.OutputItemFileSearchToolCall
function_call OpenAI.OutputItemFunctionToolCall
web_search_call OpenAI.OutputItemWebSearchToolCall
computer_call OpenAI.OutputItemComputerToolCall
reasoning OpenAI.OutputItemReasoningItem
compaction OpenAI.OutputItemCompactionBody
image_generation_call OpenAI.OutputItemImageGenToolCall
code_interpreter_call OpenAI.OutputItemCodeInterpreterToolCall
local_shell_call OpenAI.OutputItemLocalShellToolCall
shell_call OpenAI.OutputItemFunctionShellCall
shell_call_output OpenAI.OutputItemFunctionShellCallOutput
apply_patch_call OpenAI.OutputItemApplyPatchToolCall
apply_patch_call_output OpenAI.OutputItemApplyPatchToolCallOutput
mcp_call OpenAI.OutputItemMcpToolCall
mcp_list_tools OpenAI.OutputItemMcpListTools
mcp_approval_request OpenAI.OutputItemMcpApprovalRequest
custom_tool_call OpenAI.OutputItemCustomToolCall
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.OutputItemType

OpenAI.OutputItemApplyPatchToolCall

Chiamata dello strumento che applica differenze di file creando, eliminando o aggiornando i file.

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa ID univoco della chiamata dello strumento applica patch generata dal modello.
created_by Stringa ID dell'entità che ha creato questa chiamata allo strumento. No
Id Stringa ID univoco della chiamata dello strumento apply patch. Popolata quando questo elemento viene restituito tramite API.
Operazione OpenAI.ApplyPatchFileOperation Una delle operazioni di create_file, delete_file o update_file applicate tramite apply_patch.
Tipo └* OpenAI.ApplyPatchFileOperationType
Stato OpenAI.ApplyPatchCallStatus
digitare Enum Tipo dell'elemento. Sempre apply_patch_call.
Valori possibili: apply_patch_call

OpenAI.OutputItemApplyPatchToolCallOutput

Output generato da una chiamata di applicazione dello strumento patch.

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa ID univoco della chiamata dello strumento applica patch generata dal modello.
created_by Stringa ID dell'entità che ha creato l'output della chiamata dello strumento. No
Id Stringa ID univoco dell'output della chiamata dello strumento patch apply. Popolata quando questo elemento viene restituito tramite API.
Output stringa o null No
Stato OpenAI.ApplyPatchCallOutputStatus
digitare Enum Tipo dell'elemento. Sempre apply_patch_call_output.
Valori possibili: apply_patch_call_output

OpenAI.OutputItemCodeInterpreterToolCall

Una chiamata a uno strumento per eseguire codice.

Nome Digitare Descrizione Obbligatorio Predefinito
Codice stringa o null
container_id Stringa ID del contenitore usato per eseguire il codice.
Id Stringa L'ID univoco dello strumento interprete del codice chiama.
Uscite matrice di OpenAI.CodeInterpreterOutputLogs o OpenAI.CodeInterpreterOutputImage o null
Stato Enum Lo stato dello strumento di interprete del codice chiamato. I valori validi sono in_progress, completedincomplete, interpreting, e failed.
Valori possibili: in_progress, completed, incomplete, interpreting, failed
digitare Enum Il tipo che chiama lo strumento dell'interprete del codice. Sempre code_interpreter_call.
Valori possibili: code_interpreter_call

OpenAI.OutputItemCompactionBody

Elemento di compattazione generato dall'APIv1/responses/compact.

Nome Digitare Descrizione Obbligatorio Predefinito
created_by Stringa Identificatore dell'attore che ha creato l'elemento. No
encrypted_content Stringa Contenuto crittografato prodotto dalla compattazione.
Id Stringa ID univoco dell'elemento di compattazione.
digitare Enum Tipo dell'elemento. Sempre compaction.
Valori possibili: compaction

OpenAI.OutputItemComputerToolCall

Un richiamo a uno strumento per l'uso del computer. Per altre informazioni, vedere la guida all'uso del computer .

Nome Digitare Descrizione Obbligatorio Predefinito
Azione OpenAI.ComputerAction
call_id Stringa Un identificatore usato quando si risponde alla chiamata dello strumento con output.
Id Stringa L'ID unico della chiamata computerizzata.
pending_safety_checks matrice di OpenAI.ComputerCallSafetyCheckParam I controlli di sicurezza in attesa per la chiamata al computer.
Stato Enum Lo stato dell'oggetto. Uno di in_progress, completedo
incomplete. Popolati quando gli elementi vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
digitare Enum Il tipo di chiamata al computer. Sempre computer_call.
Valori possibili: computer_call

OpenAI.OutputItemCustomToolCall

Chiamata a uno strumento personalizzato creato dal modello.

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa Identificatore usato per eseguire il mapping di questa chiamata personalizzata a un output di chiamata dello strumento.
Id Stringa ID univoco della chiamata dello strumento personalizzato nella piattaforma OpenAI. No
Input Stringa Input per la chiamata personalizzata dello strumento generata dal modello.
Nome Stringa Nome dello strumento personalizzato chiamato.
digitare Enum Tipo di chiamata allo strumento personalizzato. Sempre custom_tool_call.
Valori possibili: custom_tool_call

OpenAI.OutputItemFileSearchToolCall

I risultati di uno strumento di ricerca file chiamano. Per altre informazioni, vedere la guida alla ricerca di file .

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa L'ID univoco dello strumento di ricerca file chiama.
Query matrice di stringhe Le query usate per cercare file.
Risultati matrice di OpenAI.FileSearchToolCallResults o null No
Stato Enum Lo stato dello strumento di ricerca file chiamato. Uno di in_progress,
searching, incomplete o failed,
Valori possibili: in_progress, searching, completed, incomplete, failed
digitare Enum Il tipo di chiamata dello strumento di ricerca file. Sempre file_search_call.
Valori possibili: file_search_call

OpenAI.OutputItemFunctionShellCall

Chiamata dello strumento che esegue uno o più comandi della shell in un ambiente gestito.

Nome Digitare Descrizione Obbligatorio Predefinito
Azione OpenAI.FunctionShellAction Eseguire un comando shell.
Comandi └* matrice di stringhe
└max_output_length integer o null
└timeout_ms integer o null
call_id Stringa ID univoco della chiamata dello strumento shell generata dal modello.
created_by Stringa ID dell'entità che ha creato questa chiamata allo strumento. No
Id Stringa ID univoco della chiamata dello strumento shell. Popolata quando questo elemento viene restituito tramite API.
Stato OpenAI.LocalShellCallStatus
digitare Enum Tipo dell'elemento. Sempre shell_call.
Valori possibili: shell_call

OpenAI.OutputItemFunctionShellCallOutput

Output di una chiamata dello strumento shell generata.

Nome Digitare Descrizione Obbligatorio Predefinito
call_id Stringa ID univoco della chiamata dello strumento shell generata dal modello.
created_by Stringa Identificatore dell'attore che ha creato l'elemento. No
Id Stringa ID univoco dell'output della chiamata della shell. Popolata quando questo elemento viene restituito tramite API.
max_output_length integer o null
Output matrice di OpenAI.FunctionShellCallOutputContent Matrice di contenuti di output delle chiamate shell
digitare Enum Tipo dell'output delle chiamate della shell. Sempre shell_call_output.
Valori possibili: shell_call_output

OpenAI.OutputItemFunctionToolCall

Una chiamata a uno strumento per eseguire una funzione. Per altre informazioni, vedere la guida alla chiamata di funzione .

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa Una stringa JSON degli argomenti da passare alla funzione.
call_id Stringa L'ID univoco della chiamata dello strumento funzionale generata dal modello.
Id Stringa L'ID univoco dello strumento di funzione chiama. No
Nome Stringa Il nome della funzione da eseguire.
Stato Enum Lo stato dell'oggetto. Uno di in_progress, completedo
incomplete. Popolati quando gli elementi vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
No
digitare Enum Il tipo di chiamata dello strumento funzionale. Sempre function_call.
Valori possibili: function_call

OpenAI.OutputItemImageGenToolCall

Richiesta di generazione di immagini effettuata dal modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa ID univoco della chiamata di generazione dell'immagine.
Risultato stringa o null
Stato Enum Stato della chiamata di generazione dell'immagine.
Valori possibili: in_progress, completed, generating, failed
digitare Enum Tipo della chiamata di generazione dell'immagine. Sempre image_generation_call.
Valori possibili: image_generation_call

OpenAI.OutputItemLocalShellToolCall

Chiamata dello strumento per eseguire un comando nella shell locale.

Nome Digitare Descrizione Obbligatorio Predefinito
Azione OpenAI.LocalShellExecAction Eseguire un comando shell nel server.
call_id Stringa ID univoco della chiamata dello strumento shell locale generata dal modello.
Id Stringa ID univoco della chiamata della shell locale.
Stato Enum Stato della chiamata della shell locale.
Valori possibili: in_progress, completed, incomplete
digitare Enum Tipo di chiamata della shell locale. Sempre local_shell_call.
Valori possibili: local_shell_call

OpenAI.OutputItemMcpApprovalRequest

Richiesta di approvazione umana di una chiamata a uno strumento.

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa Stringa JSON di argomenti per lo strumento.
Id Stringa ID univoco della richiesta di approvazione.
Nome Stringa Nome dello strumento da eseguire.
server_label Stringa Etichetta del server MCP che effettua la richiesta.
digitare Enum Tipo dell'elemento. Sempre mcp_approval_request.
Valori possibili: mcp_approval_request

OpenAI.OutputItemMcpListTools

Elenco di strumenti disponibili in un server MCP.

Nome Digitare Descrizione Obbligatorio Predefinito
Errore stringa o null No
Id Stringa ID univoco dell'elenco.
server_label Stringa Etichetta del server MCP.
Strumenti matrice di OpenAI.MCPListToolsTool Strumenti disponibili nel server.
digitare Enum Tipo dell'elemento. Sempre mcp_list_tools.
Valori possibili: mcp_list_tools

OpenAI.OutputItemMcpToolCall

Chiamata di uno strumento in un server MCP.

Nome Digitare Descrizione Obbligatorio Predefinito
approval_request_id stringa o null No
Argomenti Stringa Stringa JSON degli argomenti passati allo strumento.
Errore stringa o null No
Id Stringa ID univoco della chiamata allo strumento.
Nome Stringa Nome dello strumento eseguito.
Output stringa o null No
server_label Stringa Etichetta del server MCP che esegue lo strumento.
Stato OpenAI.MCPToolCallStatus No
digitare Enum Tipo dell'elemento. Sempre mcp_call.
Valori possibili: mcp_call

OpenAI.OutputItemOutputMessage

Un messaggio di output dal modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto matrice di OpenAI.OutputMessageContent Il contenuto del messaggio di output.
Id Stringa L'ID univoco del messaggio di output.
Ruolo Enum Il ruolo del messaggio di output. Sempre assistant.
Valori possibili: assistant
Stato Enum Lo stato del messaggio inserito. Uno di in_progress, completedo
incomplete. Popolati quando gli input input vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
digitare Enum Il tipo del messaggio di output. Sempre message.
Valori possibili: output_message

OpenAI.OutputItemReasoningItem

Una descrizione della catena di pensiero utilizzata da un modello di ragionamento durante la generazione di una risposta. Assicurarsi di includere questi elementi nell'API input Risposte per i turni successivi di una conversazione se si gestisce manualmente il contesto.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto matrice di OpenAI.ReasoningTextContent Ragionamento del contenuto del testo. No
encrypted_content stringa o null No
Id Stringa L'identificatore unico del contenuto di ragionamento.
Stato Enum Lo stato dell'oggetto. Uno di in_progress, completedo
incomplete. Popolati quando gli elementi vengono restituiti tramite API.
Valori possibili: in_progress, completed, incomplete
No
Riepilogo matrice di OpenAI.Summary Ragionamento del contenuto di riepilogo.
digitare Enum Il tipo di oggetto. Sempre reasoning.
Valori possibili: reasoning

OpenAI.OutputItemType

Proprietà Valore
Digitare Stringa
Valori output_message
file_search_call
function_call
web_search_call
computer_call
reasoning
compaction
image_generation_call
code_interpreter_call
local_shell_call
shell_call
shell_call_output
apply_patch_call
apply_patch_call_output
mcp_call
mcp_list_tools
mcp_approval_request
custom_tool_call

OpenAI.OutputItemWebSearchToolCall

Risultati di una chiamata allo strumento di ricerca Web. Per altre informazioni, vedere la guida alla ricerca Web .

Nome Digitare Descrizione Obbligatorio Predefinito
Azione OpenAI.WebSearchActionSearch o OpenAI.WebSearchActionOpenPage o OpenAI.WebSearchActionFind Oggetto che descrive l'azione specifica eseguita in questa chiamata di ricerca Web.
Include informazioni dettagliate sul modo in cui il modello ha usato il Web (ricerca, open_page, ricerca).
Id Stringa ID univoco della chiamata dello strumento di ricerca Web.
Stato Enum Stato della chiamata dello strumento di ricerca Web.
Valori possibili: in_progress, searching, completed, failed
digitare Enum Tipo di chiamata dello strumento di ricerca Web. Sempre web_search_call.
Valori possibili: web_search_call

OpenAI.OutputMessageContent

Discriminatorio per OpenAI.OutputMessageContent

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
output_text OpenAI.OutputMessageContentOutputTextContent
refusal OpenAI.OutputMessageContentRefusalContent
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.OutputMessageContentType

OpenAI.OutputMessageContentOutputTextContent

Un testo prodotto dal modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Annotazioni matrice di OpenAI.Annotation Le annotazioni dell'output del testo.
logprobs matrice di OpenAI.LogProb No
Testo Stringa Il testo prodotto dal modello.
digitare Enum Il tipo del testo in uscita. Sempre output_text.
Valori possibili: output_text

OpenAI.OutputMessageContentRefusalContent

Un rifiuto da parte del modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Rifiuto Stringa La spiegazione del rifiuto dal modello.
digitare Enum Il tipo di rifiuto. Sempre refusal.
Valori possibili: refusal

OpenAI.OutputMessageContentType

Proprietà Valore
Digitare Stringa
Valori output_text
refusal

OpenAI.OutputTextContent

Un testo prodotto dal modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Annotazioni matrice di OpenAI.Annotation Le annotazioni dell'output del testo.
logprobs matrice di OpenAI.LogProb No
Testo Stringa Il testo prodotto dal modello.
digitare Enum Il tipo del testo in uscita. Sempre output_text.
Valori possibili: output_text

OpenAI.ParallelToolCalls

Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento.

Tipo: booleano

OpenAI.PredictionContent

Contenuto statico previsto in output, come il contenuto di un file di testo che viene rigenerato.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto stringa o matrice di OpenAI.ChatCompletionRequestMessageContentPartText Il contenuto che dovrebbe essere abbinato quando si genera una risposta al modello.
Se i token generati corrispondono a questo contenuto, l'intera risposta del modello
può essere restituito molto più rapidamente.
digitare Enum Il tipo di contenuto previsto che vuoi fornire. Questo tipo è
attualmente sempre content.
Valori possibili: content

OpenAI.Prompt

Riferimento a un modello di richiesta e alle relative variabili. Altre informazioni.

Nome Digitare Descrizione Obbligatorio Predefinito
Id Stringa Identificatore univoco del modello di richiesta da usare.
Variabili OpenAI.ResponsePromptVariables o null No
Versione stringa o null No

OpenAI.RankerVersionType

Proprietà Valore
Digitare Stringa
Valori auto
default-2024-11-15

OpenAI.RankingOptions

Nome Digitare Descrizione Obbligatorio Predefinito
hybrid_search OpenAI.HybridSearchOptions No
└embedding_weight Numero Peso dell'incorporamento nella fusione di rango reciproca.
└text_weight Numero Peso del testo nella fusione di rango reciproco.
ranker OpenAI.RankerVersionType No
score_threshold Numero La soglia di punteggio per la ricerca file, un numero compreso tra 0 e 1. I numeri più vicini a 1 cercheranno di restituire solo i risultati più rilevanti, ma potrebbero restituire meno risultati. No

OpenAI.RealtimeAudioFormats

Discriminare per OpenAI.RealtimeAudioFormats

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
audio/pcm OpenAI.RealtimeAudioFormatsAudioPcm
audio/pcmu OpenAI.RealtimeAudioFormatsAudioPcmu
audio/pcma OpenAI.RealtimeAudioFormatsAudioPcma
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.RealtimeAudioFormatsType

OpenAI.RealtimeAudioFormatsAudioPcm

Nome Digitare Descrizione Obbligatorio Predefinito
Tasso Enum
Valori possibili: 24000
No
digitare Enum
Valori possibili: audio/pcm

OpenAI.RealtimeAudioFormatsAudioPcma

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum
Valori possibili: audio/pcma

OpenAI.RealtimeAudioFormatsAudioPcmu

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum
Valori possibili: audio/pcmu

OpenAI.RealtimeAudioFormatsType

Proprietà Valore
Digitare Stringa
Valori audio/pcm
audio/pcmu
audio/pcma

OpenAI.RealtimeCallCreateRequest

Nome Digitare Descrizione Obbligatorio Predefinito
Sdp Stringa Offerta SDP (WebRTC Session Description Protocol) generata dal chiamante.
Sessione OpenAI.RealtimeSessionCreateRequestGA Configurazione in tempo reale degli oggetti di sessione. No
└* audio OpenAI.RealtimeSessionCreateRequestGAAudio Configurazione per l'input e l'output audio. No
└* include matrice di stringhe Campi aggiuntivi da includere negli output del server.
item.input_audio_transcription.logprobs: includere logprobs per la trascrizione audio di input.
No
└* istruzioni Stringa Le istruzioni di sistema predefinite (cioè il messaggio di sistema) precedevano le chiamate del modello. Questo campo permette al cliente di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta( ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono garantite dal modello, ma forniscono indicazioni sul comportamento desiderato.
Si noti che il server imposta le istruzioni predefinite che verranno utilizzate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione.
No
└max_output_tokens integer (vedere modelli validi di seguito) Numero massimo di token di output per una singola risposta di assistente,
inclusivo delle chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 a
limitare i token di output o inf per il numero massimo di token disponibili per un
modello specificato. Di default è inf.
No
Modello └* Stringa Modello in tempo reale utilizzato per questa sessione. No
└output_modalities matrice di stringhe L'insieme delle modalità a cui il modello può rispondere. L'impostazione ["audio"]predefinita è , che indica
che il modello risponderà con audio più una trascrizione. ["text"] può essere usato per fare
il modello risponde solo con testo. Non è possibile richiedere e textaudio allo stesso tempo.
No ['audio']
└* prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
└tool_choice OpenAI.ToolChoiceOptions o OpenAI.ToolChoiceFunction o OpenAI.ToolChoiceMCP Come il modello sceglie gli strumenti. Specificare una delle modalità stringa o forzare una specifica
strumento function/MCP.
No Automatico
Strumenti └* matrice di OpenAI.RealtimeFunctionTool o OpenAI.MCPTool Strumenti disponibili per il modello. No
└> traccia string o OpenAI.RealtimeSessionCreateRequestGATracing o null "" Impostare su null per disabilitare la traccia. Una volta
la traccia è abilitata per una sessione, la configurazione non può essere modificata.
auto creerà una traccia per la sessione con i valori predefiniti per
nome del flusso di lavoro, ID gruppo e metadati.
No Automatico
└\ troncamento OpenAI.RealtimeTruncation Quando il numero di token in una conversazione supera il limite di token di input del modello, la conversazione viene troncata, ovvero i messaggi (a partire dal meno recente) non verranno inclusi nel contesto del modello. Un modello di contesto di 32k con 4.096 token di output massimo può includere solo 28.224 token nel contesto prima del troncamento.
I client possono configurare il comportamento di troncamento con un limite massimo di token inferiore, un modo efficace per controllare l'utilizzo e i costi dei token.
Il troncamento ridurrà il numero di token memorizzati nella cache al turno successivo (busting the cache), poiché i messaggi vengono eliminati dall'inizio del contesto. Tuttavia, i client possono anche configurare il troncamento per conservare i messaggi fino a una frazione delle dimensioni massime del contesto, riducendo così la necessità di troncamenti futuri e migliorando così la frequenza della cache.
Il troncamento può essere disabilitato completamente, il che significa che il server non verrà mai troncato, ma restituirà invece un errore se la conversazione supera il limite di token di input del modello.
No
Tipo └* Enum Tipo di sessione da creare. Sempre realtime per l'API In tempo reale.
Valori possibili: realtime

OpenAI.RealtimeCallReferRequest

Parametri necessari per trasferire una chiamata SIP a una nuova destinazione usando l'API Realtime.

Nome Digitare Descrizione Obbligatorio Predefinito
target_uri Stringa URI che dovrebbe essere visualizzato nell'intestazione sip Refer-To. Supporta valori come
tel:+14155550123 o sip:agent\@example.com.

OpenAI.RealtimeCallRejectRequest

Parametri usati per rifiutare una chiamata SIP in ingresso gestita dall'API Realtime.

Nome Digitare Descrizione Obbligatorio Predefinito
status_code Intero Codice di risposta SIP da inviare al chiamante. Il valore predefinito è 603 (rifiuta)
quando viene omesso.
No

OpenAI.RealtimeCreateClientSecretRequest

Creare una sessione e un segreto client per l'API In tempo reale. La richiesta può specificare una configurazione di sessione in tempo reale o di trascrizione. Altre informazioni sull'API Realtime.

Nome Digitare Descrizione Obbligatorio Predefinito
expires_after OpenAI.RealtimeCreateClientSecretRequestExpiresAfter No
Ancoraggio └* Enum
Valori possibili: created_at
No
└> secondi Intero Vincoli: min: 10, max: 7200 No 600
Sessione OpenAI.RealtimeSessionCreateRequestUnion No
Tipo └* OpenAI.RealtimeSessionCreateRequestUnionType

OpenAI.RealtimeCreateClientSecretRequestExpiresAfter

Nome Digitare Descrizione Obbligatorio Predefinito
ancora Enum
Valori possibili: created_at
No
Secondi Intero Vincoli: min: 10, max: 7200 No 600

OpenAI.RealtimeCreateClientSecretResponse

Risposta dalla creazione di una sessione e di un segreto client per l'API Realtime.

Nome Digitare Descrizione Obbligatorio Predefinito
expires_at Intero Timestamp di scadenza per il segreto client, espresso in secondi dall'epoca.
Sessione OpenAI.RealtimeSessionCreateResponseUnion
Tipo └* OpenAI.RealtimeSessionCreateResponseUnionType
Valore Stringa Valore del segreto client generato.

OpenAI.RealtimeFunctionTool

Nome Digitare Descrizione Obbligatorio Predefinito
Descrizione Stringa Descrizione della funzione, incluse indicazioni su quando e come
per chiamarlo e indicazioni su cosa indicare all'utente quando si chiama
(se qualcosa).
No
Nome Stringa Il nome della funzione. No
Parametri OpenAI.RealtimeFunctionToolParameters No
digitare Enum Tipo dello strumento, ad esempio function.
Valori possibili: function
No

OpenAI.RealtimeFunctionToolParameters

Tipo: oggetto

OpenAI.RealtimeSessionCreateRequest

Una nuova configurazione di sessione in tempo reale, con una chiave effimera. Il TTL predefinito per i tasti è un minuto.

Nome Digitare Descrizione Obbligatorio Predefinito
client_secret OpenAI.RealtimeSessionCreateRequestClientSecret
└expires_at Intero
└* valore Stringa
input_audio_format Stringa Il formato dell'audio in ingresso. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw. No
input_audio_transcription OpenAI.RealtimeSessionCreateRequestInputAudioTranscription No
Modello └* Stringa No
Istruzioni Stringa Le istruzioni di sistema predefinite (cioè il messaggio di sistema) precedevano le chiamate del modello. Questo campo permette al cliente di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta( ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono garantite dal modello, ma forniscono indicazioni sul comportamento desiderato.
Si noti che il server imposta le istruzioni predefinite che verranno utilizzate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione.
No
max_response_output_tokens integer (vedere modelli validi di seguito) Numero massimo di token di output per una singola risposta di assistente,
inclusivo delle chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 a
limitare i token di output o inf per il numero massimo di token disponibili per un
modello specificato. Di default è inf.
No
Modalità matrice di stringhe L'insieme delle modalità a cui il modello può rispondere. Per disabilitare l'audio,
impostare su ["text"].
No ['text', 'audio']
output_audio_format Stringa Il formato dell'audio in uscita. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw. No
prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
Velocità Numero Velocità della risposta pronunciata del modello. 1.0 è la velocità predefinita. 0.25 è
la velocità minima. 1,5 è la velocità massima. Questo valore può essere modificato solo
tra i turni del modello, non mentre è in corso una risposta.
Vincoli: min: 0,25, max: 1,5
No 1
Temperatura Numero La temperatura di campionamento per il modello è limitata a [0,6, 1,2]. Di default è 0.8. No
tool_choice Stringa Come il modello sceglie gli strumenti. Le opzioni sono auto, none, requiredo
specificare una funzione.
No
Strumenti matrice di OpenAI.RealtimeSessionCreateRequestTools Strumenti (funzioni) disponibili per il modello. No
Traccia stringa o oggetto Opzioni di configurazione per la traccia. Impostare su Null per disabilitare la traccia. Una volta
la traccia è abilitata per una sessione, la configurazione non può essere modificata.
auto creerà una traccia per la sessione con i valori predefiniti per
nome del flusso di lavoro, ID gruppo e metadati.
No
Troncamento OpenAI.RealtimeTruncation Quando il numero di token in una conversazione supera il limite di token di input del modello, la conversazione viene troncata, ovvero i messaggi (a partire dal meno recente) non verranno inclusi nel contesto del modello. Un modello di contesto di 32k con 4.096 token di output massimo può includere solo 28.224 token nel contesto prima del troncamento.
I client possono configurare il comportamento di troncamento con un limite massimo di token inferiore, un modo efficace per controllare l'utilizzo e i costi dei token.
Il troncamento ridurrà il numero di token memorizzati nella cache al turno successivo (busting the cache), poiché i messaggi vengono eliminati dall'inizio del contesto. Tuttavia, i client possono anche configurare il troncamento per conservare i messaggi fino a una frazione delle dimensioni massime del contesto, riducendo così la necessità di troncamenti futuri e migliorando così la frequenza della cache.
Il troncamento può essere disabilitato completamente, il che significa che il server non verrà mai troncato, ma restituirà invece un errore se la conversazione supera il limite di token di input del modello.
No
turn_detection OpenAI.RealtimeSessionCreateRequestTurnDetection No
└prefix_padding_ms Intero No
└silence_duration_ms Intero No
└* soglia Numero No
Tipo └* Stringa No
digitare Enum
Valori possibili: realtime
Voce OpenAI.VoiceIdsShared No

OpenAI.RealtimeSessionCreateRequestClientSecret

Nome Digitare Descrizione Obbligatorio Predefinito
expires_at Intero
Valore Stringa

OpenAI.RealtimeSessionCreateRequestGA

Configurazione in tempo reale degli oggetti di sessione.

Nome Digitare Descrizione Obbligatorio Predefinito
Audio OpenAI.RealtimeSessionCreateRequestGAAudio No
Input └* OpenAI.RealtimeSessionCreateRequestGAAudioInput No
└* output OpenAI.RealtimeSessionCreateRequestGAAudioOutput No
Includono matrice di stringhe Campi aggiuntivi da includere negli output del server.
item.input_audio_transcription.logprobs: includere logprobs per la trascrizione audio di input.
No
Istruzioni Stringa Le istruzioni di sistema predefinite (cioè il messaggio di sistema) precedevano le chiamate del modello. Questo campo permette al cliente di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta( ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono garantite dal modello, ma forniscono indicazioni sul comportamento desiderato.
Si noti che il server imposta le istruzioni predefinite che verranno utilizzate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione.
No
max_output_tokens integer (vedere modelli validi di seguito) Numero massimo di token di output per una singola risposta di assistente,
inclusivo delle chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 a
limitare i token di output o inf per il numero massimo di token disponibili per un
modello specificato. Di default è inf.
No
Modello Stringa Modello in tempo reale utilizzato per questa sessione. No
output_modalities matrice di stringhe L'insieme delle modalità a cui il modello può rispondere. L'impostazione ["audio"]predefinita è , che indica
che il modello risponderà con audio più una trascrizione. ["text"] può essere usato per fare
il modello risponde solo con testo. Non è possibile richiedere e textaudio allo stesso tempo.
No ['audio']
prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
tool_choice OpenAI.ToolChoiceOptions o OpenAI.ToolChoiceFunction o OpenAI.ToolChoiceMCP Come il modello sceglie gli strumenti. Specificare una delle modalità stringa o forzare una specifica
strumento function/MCP.
No
Strumenti matrice di OpenAI.RealtimeFunctionTool o OpenAI.MCPTool Strumenti disponibili per il modello. No
Traccia string o OpenAI.RealtimeSessionCreateRequestGATracing o null "" Impostare su null per disabilitare la traccia. Una volta
la traccia è abilitata per una sessione, la configurazione non può essere modificata.
auto creerà una traccia per la sessione con i valori predefiniti per
nome del flusso di lavoro, ID gruppo e metadati.
No
Troncamento OpenAI.RealtimeTruncation Quando il numero di token in una conversazione supera il limite di token di input del modello, la conversazione viene troncata, ovvero i messaggi (a partire dal meno recente) non verranno inclusi nel contesto del modello. Un modello di contesto di 32k con 4.096 token di output massimo può includere solo 28.224 token nel contesto prima del troncamento.
I client possono configurare il comportamento di troncamento con un limite massimo di token inferiore, un modo efficace per controllare l'utilizzo e i costi dei token.
Il troncamento ridurrà il numero di token memorizzati nella cache al turno successivo (busting the cache), poiché i messaggi vengono eliminati dall'inizio del contesto. Tuttavia, i client possono anche configurare il troncamento per conservare i messaggi fino a una frazione delle dimensioni massime del contesto, riducendo così la necessità di troncamenti futuri e migliorando così la frequenza della cache.
Il troncamento può essere disabilitato completamente, il che significa che il server non verrà mai troncato, ma restituirà invece un errore se la conversazione supera il limite di token di input del modello.
No
digitare Enum Tipo di sessione da creare. Sempre realtime per l'API In tempo reale.
Valori possibili: realtime

OpenAI.RealtimeSessionCreateRequestGAAudio

Nome Digitare Descrizione Obbligatorio Predefinito
Input OpenAI.RealtimeSessionCreateRequestGAAudioInput No
Output OpenAI.RealtimeSessionCreateRequestGAAudioOutput No

OpenAI.RealtimeSessionCreateRequestGAAudioInput

Nome Digitare Descrizione Obbligatorio Predefinito
Formato OpenAI.RealtimeAudioFormats No
noise_reduction OpenAI.RealtimeSessionCreateRequestGAAudioInputNoiseReduction No
Trascrizione OpenAI.AudioTranscription No
turn_detection OpenAI.RealtimeTurnDetection No

OpenAI.RealtimeSessionCreateRequestGAAudioInputNoiseReduction

Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.NoiseReductionType Tipo di riduzione del rumore. near_field è per microfoni ravvicinati come le cuffie, è far_field per microfoni a campo lontano come laptop o microfoni di sala conferenze. No

OpenAI.RealtimeSessionCreateRequestGAAudioOutput

Nome Digitare Descrizione Obbligatorio Predefinito
Formato OpenAI.RealtimeAudioFormats No
Velocità Numero Vincoli: min: 0,25, max: 1,5 No 1
Voce OpenAI.VoiceIdsShared No

OpenAI.RealtimeSessionCreateRequestGATracing

Nome Digitare Descrizione Obbligatorio Predefinito
group_id Stringa No
Metadati Oggetto No
workflow_name Stringa No

OpenAI.RealtimeSessionCreateRequestInputAudioTranscription

Nome Digitare Descrizione Obbligatorio Predefinito
Modello Stringa No

OpenAI.RealtimeSessionCreateRequestTools

Nome Digitare Descrizione Obbligatorio Predefinito
Descrizione Stringa No
Nome Stringa No
Parametri OpenAI.RealtimeSessionCreateRequestToolsParameters No
digitare Enum
Valori possibili: function
No

OpenAI.RealtimeSessionCreateRequestToolsParameters

Tipo: oggetto

OpenAI.RealtimeSessionCreateRequestTurnDetection

Nome Digitare Descrizione Obbligatorio Predefinito
prefix_padding_ms Intero No
silence_duration_ms Intero No
Soglia Numero No
digitare Stringa No

OpenAI.RealtimeSessionCreateRequestUnion

Discriminante per OpenAI.RealtimeSessionCreateRequestUnion

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
realtime OpenAI.RealtimeSessionCreateRequest
transcription OpenAI.RealtimeTranscriptionSessionCreateRequest
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.RealtimeSessionCreateRequestUnionType

OpenAI.RealtimeSessionCreateRequestUnionType

Proprietà Valore
Digitare Stringa
Valori realtime
transcription

OpenAI.RealtimeSessionCreateResponse

Oggetto di configurazione sessione in tempo reale.

Nome Digitare Descrizione Obbligatorio Predefinito
Audio OpenAI.RealtimeSessionCreateResponseAudio No
Input └* OpenAI.RealtimeSessionCreateResponseAudioInput No
└* output OpenAI.RealtimeSessionCreateResponseAudioOutput No
expires_at Intero Timestamp di scadenza per la sessione, in secondi dall'epoca. No
Id Stringa Identificatore univoco per la sessione simile a sess_1234567890abcdef. No
Includono matrice di stringhe Campi aggiuntivi da includere negli output del server.
- item.input_audio_transcription.logprobs: includere logprobs per la trascrizione audio di input.
No
Istruzioni Stringa Le istruzioni di sistema predefinite (ad esempio il messaggio di sistema) anteporte al modello
Chiamate. Questo campo consente al client di guidare il modello in base alle esigenze
Risposte. Il modello può essere indicato sul contenuto e sul formato della risposta,
(ad esempio "essere estremamente succinti", "act friendly", "here are examples of good
risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni"
nella tua voce", "ridere frequentemente"). Le istruzioni non sono garantite
per essere seguito dal modello, ma forniscono indicazioni al modello sul
comportamento desiderato.
Si noti che il server imposta le istruzioni predefinite che verranno usate se si tratta di
il campo non è impostato e è visibile nell'evento in corrispondenza di session.created
inizio della sessione.
No
max_output_tokens integer (vedere modelli validi di seguito) Numero massimo di token di output per una singola risposta di assistente,
inclusivo delle chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 a
limitare i token di output o inf per il numero massimo di token disponibili per un
modello specificato. Di default è inf.
No
Modello Stringa Modello in tempo reale utilizzato per questa sessione. No
Oggetto Stringa Il tipo di oggetto. Sempre realtime.session. No
output_modalities matrice di stringhe L'insieme delle modalità a cui il modello può rispondere. Per disabilitare l'audio,
impostare su ["text"].
No
tool_choice Stringa Come il modello sceglie gli strumenti. Le opzioni sono auto, none, requiredo
specificare una funzione.
No
Strumenti matrice di OpenAI.RealtimeFunctionTool Strumenti (funzioni) disponibili per il modello. No
Traccia stringa o oggetto Opzioni di configurazione per la traccia. Impostare su Null per disabilitare la traccia. Una volta
la traccia è abilitata per una sessione, la configurazione non può essere modificata.
auto creerà una traccia per la sessione con i valori predefiniti per
nome del flusso di lavoro, ID gruppo e metadati.
No
turn_detection OpenAI.RealtimeSessionCreateResponseTurnDetection No
└prefix_padding_ms Intero No
└silence_duration_ms Intero No
└* soglia Numero No
Tipo └* Stringa No
digitare Enum
Valori possibili: realtime

OpenAI.RealtimeSessionCreateResponseAudio

Nome Digitare Descrizione Obbligatorio Predefinito
Input OpenAI.RealtimeSessionCreateResponseAudioInput No
Output OpenAI.RealtimeSessionCreateResponseAudioOutput No

OpenAI.RealtimeSessionCreateResponseAudioInput

Nome Digitare Descrizione Obbligatorio Predefinito
Formato OpenAI.RealtimeAudioFormats No
noise_reduction OpenAI.RealtimeSessionCreateResponseAudioInputNoiseReduction No
Trascrizione OpenAI.AudioTranscription No
turn_detection OpenAI.RealtimeSessionCreateResponseAudioInputTurnDetection No

OpenAI.RealtimeSessionCreateResponseAudioInputNoiseReduction

Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.NoiseReductionType Tipo di riduzione del rumore. near_field è per microfoni ravvicinati come le cuffie, è far_field per microfoni a campo lontano come laptop o microfoni di sala conferenze. No

OpenAI.RealtimeSessionCreateResponseAudioInputTurnDetection

Nome Digitare Descrizione Obbligatorio Predefinito
prefix_padding_ms Intero No
silence_duration_ms Intero No
Soglia Numero No
digitare Stringa No

OpenAI.RealtimeSessionCreateResponseAudioOutput

Nome Digitare Descrizione Obbligatorio Predefinito
Formato OpenAI.RealtimeAudioFormats No
Velocità Numero No
Voce OpenAI.VoiceIdsShared No

OpenAI.RealtimeSessionCreateResponseTurnDetection

Nome Digitare Descrizione Obbligatorio Predefinito
prefix_padding_ms Intero No
silence_duration_ms Intero No
Soglia Numero No
digitare Stringa No

OpenAI.RealtimeSessionCreateResponseUnion

Discriminante per OpenAI.RealtimeSessionCreateResponseUnion

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
realtime OpenAI.RealtimeSessionCreateResponse
transcription OpenAI.RealtimeTranscriptionSessionCreateResponse
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.RealtimeSessionCreateResponseUnionType

OpenAI.RealtimeSessionCreateResponseUnionType

Proprietà Valore
Digitare Stringa
Valori realtime
transcription

OpenAI.RealtimeTranscriptionSessionCreateRequest

Configurazione degli oggetti in tempo reale per sessioni di trascrizione.

Nome Digitare Descrizione Obbligatorio Predefinito
Includono matrice di stringhe Il set di elementi da includere nella trascrizione. Gli articoli attualmente disponibili sono:
item.input_audio_transcription.logprobs
No
input_audio_format Enum Il formato dell'audio in ingresso. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw.
Per pcm16, l'audio di input deve essere PCM a 16 bit a una frequenza di campionamento di 24 kHz,
singolo canale (mono) e ordine dei byte little-endian.
Valori possibili: pcm16, g711_ulaw, g711_alaw
No
input_audio_noise_reduction OpenAI.RealtimeTranscriptionSessionCreateRequestInputAudioNoiseReduction No
Tipo └* OpenAI.NoiseReductionType Tipo di riduzione del rumore. near_field è per microfoni ravvicinati come le cuffie, è far_field per microfoni a campo lontano come laptop o microfoni di sala conferenze. No
input_audio_transcription OpenAI.AudioTranscription No
└* lingua Stringa Il linguaggio dell'audio in ingresso. Specifica della lingua di input in
Formato ISO-639-1 (ad esempio en)
migliorerà l'accuratezza e la latenza.
No
Modello └* Stringa Il modello da usare per la trascrizione. Le opzioni correnti sono whisper-1, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15gpt-4o-transcribe, e gpt-4o-transcribe-diarize. Usare gpt-4o-transcribe-diarize quando è necessaria la diarizzazione con le etichette dell'altoparlante. No
└* prompt Stringa Testo facoltativo per guidare lo stile del modello o continuare un audio precedente
Segmento.
Per whisper-1, il prompt è un elenco di parole chiave.
Per gpt-4o-transcribe i modelli (escluso gpt-4o-transcribe-diarize), il prompt è una stringa di testo libero, ad esempio "aspetta parole correlate alla tecnologia".
No
turn_detection OpenAI.RealtimeTranscriptionSessionCreateRequestTurnDetection No
└prefix_padding_ms Intero No
└silence_duration_ms Intero No
└* soglia Numero No
Tipo └* Enum
Valori possibili: server_vad
No
digitare Enum
Valori possibili: transcription

OpenAI.RealtimeTranscriptionSessionCreateRequestInputAudioNoiseReduction

Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.NoiseReductionType Tipo di riduzione del rumore. near_field è per microfoni ravvicinati come le cuffie, è far_field per microfoni a campo lontano come laptop o microfoni di sala conferenze. No

OpenAI.RealtimeTranscriptionSessionCreateRequestTurnDetection

Nome Digitare Descrizione Obbligatorio Predefinito
prefix_padding_ms Intero No
silence_duration_ms Intero No
Soglia Numero No
digitare Enum
Valori possibili: server_vad
No

OpenAI.RealtimeTranscriptionSessionCreateResponse

Una nuova configurazione di sessione di trascrizione in tempo reale. Quando una sessione viene creata sul server tramite l'API REST, l'oggetto sessione contiene anche una chiave effimera. Il valore TTL predefinito per le chiavi è 10 minuti. Questa proprietà non è presente quando una sessione viene aggiornata tramite l'API WebSocket.

Nome Digitare Descrizione Obbligatorio Predefinito
client_secret OpenAI.RealtimeTranscriptionSessionCreateResponseClientSecret
└expires_at Intero
└* valore Stringa
input_audio_format Stringa Il formato dell'audio in ingresso. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw. No
input_audio_transcription OpenAI.AudioTranscription No
└* lingua Stringa Il linguaggio dell'audio in ingresso. Specifica della lingua di input in
Formato ISO-639-1 (ad esempio en)
migliorerà l'accuratezza e la latenza.
No
Modello └* Stringa Il modello da usare per la trascrizione. Le opzioni correnti sono whisper-1, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15gpt-4o-transcribe, e gpt-4o-transcribe-diarize. Usare gpt-4o-transcribe-diarize quando è necessaria la diarizzazione con le etichette dell'altoparlante. No
└* prompt Stringa Testo facoltativo per guidare lo stile del modello o continuare un audio precedente
Segmento.
Per whisper-1, il prompt è un elenco di parole chiave.
Per gpt-4o-transcribe i modelli (escluso gpt-4o-transcribe-diarize), il prompt è una stringa di testo libero, ad esempio "aspetta parole correlate alla tecnologia".
No
Modalità matrice di stringhe L'insieme delle modalità a cui il modello può rispondere. Per disabilitare l'audio,
impostare su ["text"].
No
turn_detection OpenAI.RealtimeTranscriptionSessionCreateResponseTurnDetection No
└prefix_padding_ms Intero No
└silence_duration_ms Intero No
└* soglia Numero No
Tipo └* Stringa No
digitare Enum
Valori possibili: transcription

OpenAI.RealtimeTranscriptionSessionCreateResponseClientSecret

Nome Digitare Descrizione Obbligatorio Predefinito
expires_at Intero
Valore Stringa

OpenAI.RealtimeTranscriptionSessionCreateResponseTurnDetection

Nome Digitare Descrizione Obbligatorio Predefinito
prefix_padding_ms Intero No
silence_duration_ms Intero No
Soglia Numero No
digitare Stringa No

OpenAI.RealtimeTruncation

Quando il numero di token in una conversazione supera il limite di token di input del modello, la conversazione viene troncata, ovvero i messaggi (a partire dal meno recente) non verranno inclusi nel contesto del modello. Un modello di contesto di 32k con 4.096 token di output massimo può includere solo 28.224 token nel contesto prima del troncamento. I client possono configurare il comportamento di troncamento con un limite massimo di token inferiore, un modo efficace per controllare l'utilizzo e i costi dei token. Il troncamento ridurrà il numero di token memorizzati nella cache al turno successivo (busting the cache), poiché i messaggi vengono eliminati dall'inizio del contesto. Tuttavia, i client possono anche configurare il troncamento per conservare i messaggi fino a una frazione delle dimensioni massime del contesto, riducendo così la necessità di troncamenti futuri e migliorando così la frequenza della cache. Il troncamento può essere disabilitato completamente, il che significa che il server non verrà mai troncato, ma restituirà invece un errore se la conversazione supera il limite di token di input del modello.

Proprietà Valore
Digitare Stringa
Valori auto
disabled

OpenAI.RealtimeTurnDetection

Discriminare per OpenAI.RealtimeTurnDetection

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.RealtimeTurnDetectionType

OpenAI.RealtimeTurnDetectionType

Tipo: string

OpenAI.Reasoning

Solo modelli gpt-5 e serie O Opzioni di configurazione per i modelli di ragionamento.

Nome Digitare Descrizione Obbligatorio Predefinito
Sforzo OpenAI.ReasoningEffort Vincola lo sforzo sul ragionamento per
ragionamento dei modelli.
I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
- gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.
- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.
- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.
- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max.
No
generate_summary stringa o null No
Riepilogo stringa o null No

OpenAI.ReasoningEffort

Limita lo sforzo sul ragionamento per i modelli di ragionamento. I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurre lo sforzo di ragionamento può portare a risposte più rapide e a meno token utilizzati per ragionare in una risposta.

  • gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.
  • Tutti i modelli prima gpt-5.1 del medium ragionamento predefinito e non supportano none.
  • Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.
  • xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max.
Proprietà Valore
Digitare Stringa
Valori none
minimal
low
medium
high
xhigh

OpenAI.ReasoningTextContent

Ragionamento del testo dal modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Testo di ragionamento del modello.
digitare Enum Tipo del testo di ragionamento. Sempre reasoning_text.
Valori possibili: reasoning_text

OpenAI.RefusalContent

Un rifiuto da parte del modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Rifiuto Stringa La spiegazione del rifiuto dal modello.
digitare Enum Il tipo di rifiuto. Sempre refusal.
Valori possibili: refusal

OpenAI.Response

Nome Digitare Descrizione Obbligatorio Predefinito
Priorità bassa booleano o null No
completed_at stringa o null No
content_filters matrice di AzureContentFilterForResponsesAPI Il filtro contenuto restituisce i risultati di RAI.
Conversazione OpenAI.ConversationReference o Null No
created_at Intero Timestamp Unix (in pochi secondi) di quando questa Risposta è stata creata.
Errore OpenAI.ResponseError o null
Id Stringa Identificatore unico per questa Risposta.
incomplete_details OpenAI.ResponseIncompleteDetails o null
Istruzioni stringa o matrice di OpenAI.InputItem o null
max_output_tokens integer o null No
max_tool_calls integer o null No
Metadati OpenAI.Metadata o Null No
Modello Stringa ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAI
offre un'ampia gamma di modelli con diverse funzionalità, prestazioni
caratteristiche e punti di prezzo. Fare riferimento alla guida al modello
per esplorare e confrontare i modelli disponibili.
No
Oggetto Enum Il tipo di oggetto di questa risorsa - sempre impostato a response.
Valori possibili: response
Output matrice di OpenAI.OutputItem Una serie di elementi di contenuto generati dal modello.
- La lunghezza e l'ordine degli elementi nella output matrice dipendono
sulla risposta del modello.
- Anziché accedere al primo elemento nella output matrice e
presupponendo che si tratti di un assistant messaggio con il contenuto generato da
il modello, è consigliabile usare la proprietà in output_text cui
supportato negli SDK.
output_text stringa o null No
parallel_tool_calls Boolean Se permettere al modello di eseguire chiamate di strumenti in parallelo. Vero
previous_response_id stringa o null No
prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
prompt_cache_key Stringa Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo. Altre informazioni. No
prompt_cache_retention stringa o null No
Ragionamento OpenAI.Reasoning o null No
safety_identifier Stringa Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI.
Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni.
No
Stato Enum Lo stato della generazione della risposta. Uno di completed, failed,
in_progress cancelled, queued, o incomplete.
Valori possibili: completed, failed, in_progress, cancelled, queued, incomplete
No
Temperatura number o null No
Testo OpenAI.ResponseTextParam Opzioni di configurazione per una risposta testuale dal modello. Può essere semplice
dati JSON strutturati o di testo. Ulteriori informazioni:
- Input di testo e output
- Output strutturati
No
tool_choice OpenAI.ToolChoiceParam Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione
una risposta. Vedere il tools parametro per vedere come specificare gli strumenti
il modello può chiamare.
No
Strumenti OpenAI.ToolsArray Una serie di strumenti che il modello può chiamare mentre genera una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .
Sono supportate le categorie di strumenti seguenti:
- Strumenti integrati: Strumenti forniti da OpenAI che estendono la
funzionalità del modello, ad esempio la ricerca Web
o ricerca di file. Altre informazioni
strumenti predefiniti.
- Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati
o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni
Strumenti MCP.
- Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente,
abilitazione del modello per chiamare il proprio codice con argomenti fortemente tipizzato
e output. Altre informazioni
chiamata di funzione. È anche possibile usare
strumenti personalizzati per chiamare il proprio codice.
No
top_logprobs integer o null No
top_p number o null No
Troncamento stringa o null No
Utilizzo OpenAI.ResponseUsage Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output,
suddivisione dei token di output e dei token totali usati.
No
Utente stringa (deprecata) Questo campo viene sostituito da safety_identifier e prompt_cache_key. Usare prompt_cache_key invece per mantenere le ottimizzazioni della memorizzazione nella cache.
Identificatore stabile per gli utenti finali.
Usato per aumentare la frequenza di riscontri nella cache migliorando il bucket di richieste simili e per consentire a OpenAI di rilevare e prevenire abusi. Altre informazioni.
No

OpenAI.ResponseAudioDeltaEvent

Emessa quando c'è una risposta audio parziale.

Nome Digitare Descrizione Obbligatorio Predefinito
Delta Stringa Un blocco di byte audio codificati in risposta Base64.
sequence_number Intero Numero di sequenza per questo blocco della risposta del flusso.
digitare Enum Il tipo di evento. Sempre response.audio.delta.
Valori possibili: response.audio.delta

OpenAI.ResponseAudioTranscriptDeltaEvent

Emessa quando c'è una trascrizione parziale dell'audio.

Nome Digitare Descrizione Obbligatorio Predefinito
Delta Stringa La trascrizione parziale della risposta audio.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Il tipo di evento. Sempre response.audio.transcript.delta.
Valori possibili: response.audio.transcript.delta

OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent

Generato quando un frammento di codice parziale viene trasmesso dall'interprete di codice.

Nome Digitare Descrizione Obbligatorio Predefinito
Delta Stringa Frammento di codice parziale trasmesso dall'interprete di codice.
item_id Stringa Identificatore univoco dell'elemento di chiamata dello strumento dell'interprete del codice.
output_index Intero Indice dell'elemento di output nella risposta per cui viene trasmesso il codice.
sequence_number Intero Numero di sequenza di questo evento, utilizzato per ordinare gli eventi di streaming.
digitare Enum Il tipo di evento. Sempre response.code_interpreter_call_code.delta.
Valori possibili: response.code_interpreter_call_code.delta

OpenAI.ResponseCodeInterpreterCallInProgressEvent

Emessa quando è in corso una chiamata da un interprete di codice.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa Identificatore univoco dell'elemento di chiamata dello strumento dell'interprete del codice.
output_index Intero Indice dell'elemento di output nella risposta per cui è in corso la chiamata dell'interprete del codice.
sequence_number Intero Numero di sequenza di questo evento, utilizzato per ordinare gli eventi di streaming.
digitare Enum Il tipo di evento. Sempre response.code_interpreter_call.in_progress.
Valori possibili: response.code_interpreter_call.in_progress

OpenAI.ResponseCodeInterpreterCallInterpretingEvent

Emessa quando l'interprete di codice sta interpretando attivamente lo snippet di codice.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa Identificatore univoco dell'elemento di chiamata dello strumento dell'interprete del codice.
output_index Intero Indice dell'elemento di output nella risposta per cui l'interprete del codice interpreta il codice.
sequence_number Intero Numero di sequenza di questo evento, utilizzato per ordinare gli eventi di streaming.
digitare Enum Il tipo di evento. Sempre response.code_interpreter_call.interpreting.
Valori possibili: response.code_interpreter_call.interpreting

OpenAI.ResponseContentPartAddedEvent

Emessa quando viene aggiunta una nuova componente di contenuto.

Nome Digitare Descrizione Obbligatorio Predefinito
content_index Intero L'indice della parte di contenuto aggiunta.
item_id Stringa L'ID dell'elemento di output a cui è stata aggiunta la parte di contenuto.
output_index Intero L'indice dell'elemento di output a cui è stata aggiunta la parte di contenuto.
Parte OpenAI.OutputContent
Tipo └* OpenAI.OutputContentType
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Il tipo di evento. Sempre response.content_part.added.
Valori possibili: response.content_part.added

OpenAI.ResponseCreatedEvent

Un evento che viene emesso quando viene creata una risposta.

Nome Digitare Descrizione Obbligatorio Predefinito
Risposta OpenAI.Response
└* sfondo booleano o null No
└completed_at stringa o null No
└content_filters matrice di AzureContentFilterForResponsesAPI Il filtro contenuto restituisce i risultati di RAI.
└* conversazione OpenAI.ConversationReference o Null No
└created_at Intero Timestamp Unix (in pochi secondi) di quando questa Risposta è stata creata.
Errore └* OpenAI.ResponseError o null
└* id Stringa Identificatore unico per questa Risposta.
└incomplete_details OpenAI.ResponseIncompleteDetails o null
└* istruzioni stringa o matrice di OpenAI.InputItem o null
└max_output_tokens integer o null No
└max_tool_calls integer o null No
Metadati └* OpenAI.Metadata o Null No
Modello └* Stringa ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAI
offre un'ampia gamma di modelli con diverse funzionalità, prestazioni
caratteristiche e punti di prezzo. Fare riferimento alla guida al modello
per esplorare e confrontare i modelli disponibili.
No
Oggetto └* Enum Il tipo di oggetto di questa risorsa - sempre impostato a response.
Valori possibili: response
└* output matrice di OpenAI.OutputItem Una serie di elementi di contenuto generati dal modello.
- La lunghezza e l'ordine degli elementi nella output matrice dipendono
sulla risposta del modello.
- Anziché accedere al primo elemento nella output matrice e
presupponendo che si tratti di un assistant messaggio con il contenuto generato da
il modello, è consigliabile usare la proprietà in output_text cui
supportato negli SDK.
└output_text stringa o null No
└parallel_tool_calls Boolean Se permettere al modello di eseguire chiamate di strumenti in parallelo. Vero
└previous_response_id stringa o null No
└* prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
└prompt_cache_key Stringa Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo. Altre informazioni. No
└prompt_cache_retention stringa o null No
└* ragionamento OpenAI.Reasoning o null No
└safety_identifier Stringa Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI.
Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni.
No
└* stato Enum Lo stato della generazione della risposta. Uno di completed, failed,
in_progress cancelled, queued, o incomplete.
Valori possibili: completed, failed, in_progress, cancelled, queued, incomplete
No
└* temperatura number o null No 1
└* testo OpenAI.ResponseTextParam Opzioni di configurazione per una risposta testuale dal modello. Può essere semplice
dati JSON strutturati o di testo. Ulteriori informazioni:
- Input di testo e output
- Output strutturati
No
└tool_choice OpenAI.ToolChoiceParam Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione
una risposta. Vedere il tools parametro per vedere come specificare gli strumenti
il modello può chiamare.
No
Strumenti └* OpenAI.ToolsArray Una serie di strumenti che il modello può chiamare mentre genera una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .
Sono supportate le categorie di strumenti seguenti:
- Strumenti integrati: Strumenti forniti da OpenAI che estendono la
funzionalità del modello, ad esempio la ricerca Web
o ricerca di file. Altre informazioni
strumenti predefiniti.
- Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati
o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni
Strumenti MCP.
- Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente,
abilitazione del modello per chiamare il proprio codice con argomenti fortemente tipizzato
e output. Altre informazioni
chiamata di funzione. È anche possibile usare
strumenti personalizzati per chiamare il proprio codice.
No
└top_logprobs integer o null No
└top_p number o null No 1
└\ troncamento stringa o null No Disabili
└* utilizzo OpenAI.ResponseUsage Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output,
suddivisione dei token di output e dei token totali usati.
No
└* utente stringa (deprecata) Questo campo viene sostituito da safety_identifier e prompt_cache_key. Usare prompt_cache_key invece per mantenere le ottimizzazioni della memorizzazione nella cache.
Identificatore stabile per gli utenti finali.
Usato per aumentare la frequenza di riscontri nella cache migliorando il bucket di richieste simili e per consentire a OpenAI di rilevare e prevenire abusi. Altre informazioni.
No
sequence_number Intero Numero di sequenza per questo evento.
digitare Enum Il tipo di evento. Sempre response.created.
Valori possibili: response.created

OpenAI.ResponseCustomToolCallInputDeltaEvent

Evento che rappresenta un delta (aggiornamento parziale) per l'input di una chiamata personalizzata allo strumento.

Nome Digitare Descrizione Obbligatorio Predefinito
Delta Stringa Dati di input incrementali (delta) per la chiamata allo strumento personalizzato.
item_id Stringa Identificatore univoco per l'elemento API associato a questo evento.
output_index Intero L'indice dell'output a cui si applica questo delta.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Identificatore del tipo di evento.
Valori possibili: response.custom_tool_call_input.delta

OpenAI.ResponseError

Un oggetto di errore viene restituito quando il modello non riesce a generare una Risposta.

Nome Digitare Descrizione Obbligatorio Predefinito
Codice OpenAI.ResponseErrorCode Il codice di errore della risposta.
Messaggio Stringa Una descrizione leggibile dall'uomo dell'errore.

OpenAI.ResponseErrorCode

Il codice di errore della risposta.

Proprietà Valore
Digitare Stringa
Valori server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

OpenAI.ResponseErrorEvent

Emessa quando si verifica un errore.

Nome Digitare Descrizione Obbligatorio Predefinito
Codice stringa o null
Messaggio Stringa Il messaggio di errore.
Param stringa o null
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Il tipo di evento. Sempre error.
Valori possibili: error

OpenAI.ResponseFailedEvent

Un evento che viene emesso quando una risposta fallisce.

Nome Digitare Descrizione Obbligatorio Predefinito
Risposta OpenAI.Response
└* sfondo booleano o null No
└completed_at stringa o null No
└content_filters matrice di AzureContentFilterForResponsesAPI Il filtro contenuto restituisce i risultati di RAI.
└* conversazione OpenAI.ConversationReference o Null No
└created_at Intero Timestamp Unix (in pochi secondi) di quando questa Risposta è stata creata.
Errore └* OpenAI.ResponseError o null
└* id Stringa Identificatore unico per questa Risposta.
└incomplete_details OpenAI.ResponseIncompleteDetails o null
└* istruzioni stringa o matrice di OpenAI.InputItem o null
└max_output_tokens integer o null No
└max_tool_calls integer o null No
Metadati └* OpenAI.Metadata o Null No
Modello └* Stringa ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAI
offre un'ampia gamma di modelli con diverse funzionalità, prestazioni
caratteristiche e punti di prezzo. Fare riferimento alla guida al modello
per esplorare e confrontare i modelli disponibili.
No
Oggetto └* Enum Il tipo di oggetto di questa risorsa - sempre impostato a response.
Valori possibili: response
└* output matrice di OpenAI.OutputItem Una serie di elementi di contenuto generati dal modello.
- La lunghezza e l'ordine degli elementi nella output matrice dipendono
sulla risposta del modello.
- Anziché accedere al primo elemento nella output matrice e
presupponendo che si tratti di un assistant messaggio con il contenuto generato da
il modello, è consigliabile usare la proprietà in output_text cui
supportato negli SDK.
└output_text stringa o null No
└parallel_tool_calls Boolean Se permettere al modello di eseguire chiamate di strumenti in parallelo. Vero
└previous_response_id stringa o null No
└* prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
└prompt_cache_key Stringa Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo. Altre informazioni. No
└prompt_cache_retention stringa o null No
└* ragionamento OpenAI.Reasoning o null No
└safety_identifier Stringa Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI.
Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni.
No
└* stato Enum Lo stato della generazione della risposta. Uno di completed, failed,
in_progress cancelled, queued, o incomplete.
Valori possibili: completed, failed, in_progress, cancelled, queued, incomplete
No
└* temperatura number o null No 1
└* testo OpenAI.ResponseTextParam Opzioni di configurazione per una risposta testuale dal modello. Può essere semplice
dati JSON strutturati o di testo. Ulteriori informazioni:
- Input di testo e output
- Output strutturati
No
└tool_choice OpenAI.ToolChoiceParam Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione
una risposta. Vedere il tools parametro per vedere come specificare gli strumenti
il modello può chiamare.
No
Strumenti └* OpenAI.ToolsArray Una serie di strumenti che il modello può chiamare mentre genera una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .
Sono supportate le categorie di strumenti seguenti:
- Strumenti integrati: Strumenti forniti da OpenAI che estendono la
funzionalità del modello, ad esempio la ricerca Web
o ricerca di file. Altre informazioni
strumenti predefiniti.
- Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati
o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni
Strumenti MCP.
- Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente,
abilitazione del modello per chiamare il proprio codice con argomenti fortemente tipizzato
e output. Altre informazioni
chiamata di funzione. È anche possibile usare
strumenti personalizzati per chiamare il proprio codice.
No
└top_logprobs integer o null No
└top_p number o null No 1
└\ troncamento stringa o null No Disabili
└* utilizzo OpenAI.ResponseUsage Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output,
suddivisione dei token di output e dei token totali usati.
No
└* utente stringa (deprecata) Questo campo viene sostituito da safety_identifier e prompt_cache_key. Usare prompt_cache_key invece per mantenere le ottimizzazioni della memorizzazione nella cache.
Identificatore stabile per gli utenti finali.
Usato per aumentare la frequenza di riscontri nella cache migliorando il bucket di richieste simili e per consentire a OpenAI di rilevare e prevenire abusi. Altre informazioni.
No
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Il tipo di evento. Sempre response.failed.
Valori possibili: response.failed

OpenAI.ResponseFileSearchCallInProgressEvent

Emessa quando viene avviata una chiamata di ricerca file.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa L'ID dell'elemento di output che viene avviato dalla ricerca del file.
output_index Intero L'indice dell'elemento di output che viene avviato dalla ricerca del file.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Il tipo di evento. Sempre response.file_search_call.in_progress.
Valori possibili: response.file_search_call.in_progress

OpenAI.ResponseFileSearchCallSearchingEvent

Viene emesso quando una ricerca file è attualmente in corso.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa L'ID dell'elemento di output che viene avviato dalla ricerca del file.
output_index Intero L'indice dell'elemento di output che la ricerca chiamata dal file sta cercando.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Il tipo di evento. Sempre response.file_search_call.searching.
Valori possibili: response.file_search_call.searching

OpenAI.ResponseFormatJsonObject

Formato della risposta dell'oggetto JSON. Metodo precedente di generazione di risposte JSON. L'uso json_schema di è consigliato per i modelli che lo supportano. Si noti che il modello non genererà JSON senza un messaggio di sistema o utente che indica a tale scopo.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Il tipo di formato di risposta da definire. Sempre json_object.
Valori possibili: json_object

OpenAI.ResponseFormatJsonSchema

Formato di risposta schema JSON. Utilizzato per generare risposte JSON strutturate. Altre informazioni sugli output strutturati.

Nome Digitare Descrizione Obbligatorio Predefinito
json_schema OpenAI.ResponseFormatJsonSchemaJsonSchema
└* descrizione Stringa No
└> nome Stringa
Schema └* OpenAI.ResponseFormatJsonSchemaSchema Lo schema per il formato di risposta, descritto come un oggetto JSON Schema.
Impara qui come costruire schemi JSON.
No
└* strict booleano o null No
digitare Enum Il tipo di formato di risposta da definire. Sempre json_schema.
Valori possibili: json_schema

OpenAI.ResponseFormatJsonSchemaJsonSchema

Nome Digitare Descrizione Obbligatorio Predefinito
Descrizione Stringa No
Nome Stringa
Schema OpenAI.ResponseFormatJsonSchemaSchema Lo schema per il formato di risposta, descritto come un oggetto JSON Schema.
Impara qui come costruire schemi JSON.
No
Rigorosa booleano o null No

OpenAI.ResponseFormatJsonSchemaSchema

Lo schema per il formato di risposta, descritto come un oggetto JSON Schema. Impara qui come costruire schemi JSON.

Tipo: oggetto

OpenAI.ResponseFormatText

Formato di risposta predefinito. Usato per generare risposte di testo.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Il tipo di formato di risposta da definire. Sempre text.
Valori possibili: text

OpenAI.ResponseFunctionCallArgumentsDeltaEvent

Emessa quando esiste un delta parziale degli argomenti di chiamata di funzione.

Nome Digitare Descrizione Obbligatorio Predefinito
Delta Stringa Gli argomenti della chiamata di funzione sono delta che vengono aggiunti.
item_id Stringa L'ID dell'elemento di output a cui viene aggiunto il delta degli argomenti delle chiamate funzioni.
output_index Intero L'indice dell'elemento di output a cui si aggiungono i delta degli argomenti delle chiamate funzioni.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Il tipo di evento. Sempre response.function_call_arguments.delta.
Valori possibili: response.function_call_arguments.delta

OpenAI.ResponseImageGenCallGeneratingEvent

Generato quando una chiamata dello strumento di generazione di immagini genera attivamente un'immagine (stato intermedio).

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa Identificatore univoco dell'elemento di generazione dell'immagine in fase di elaborazione.
output_index Intero Indice dell'elemento di output nella matrice di output della risposta.
sequence_number Intero Numero di sequenza dell'elemento di generazione dell'immagine da elaborare.
digitare Enum Il tipo di evento. Sempre "response.image_generation_call.generating".
Valori possibili: response.image_generation_call.generating

OpenAI.ResponseImageGenCallInProgressEvent

Generato quando è in corso una chiamata dello strumento di generazione di immagini.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa Identificatore univoco dell'elemento di generazione dell'immagine in fase di elaborazione.
output_index Intero Indice dell'elemento di output nella matrice di output della risposta.
sequence_number Intero Numero di sequenza dell'elemento di generazione dell'immagine da elaborare.
digitare Enum Il tipo di evento. Sempre 'response.image_generation_call.in_progress'.
Valori possibili: response.image_generation_call.in_progress

OpenAI.ResponseImageGenCallPartialImageEvent

Generato quando un'immagine parziale è disponibile durante il flusso di generazione di immagini.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa Identificatore univoco dell'elemento di generazione dell'immagine in fase di elaborazione.
output_index Intero Indice dell'elemento di output nella matrice di output della risposta.
partial_image_b64 Stringa Dati parziali con codifica Base64, adatti per il rendering come immagine.
partial_image_index Intero Indice in base 0 per l'immagine parziale (il back-end è basato su 1, ma questo è basato su 0 per l'utente).
sequence_number Intero Numero di sequenza dell'elemento di generazione dell'immagine da elaborare.
digitare Enum Il tipo di evento. Sempre 'response.image_generation_call.partial_image'.
Valori possibili: response.image_generation_call.partial_image

OpenAI.ResponseInProgressEvent

Emessa quando la risposta è in corso.

Nome Digitare Descrizione Obbligatorio Predefinito
Risposta OpenAI.Response
└* sfondo booleano o null No
└completed_at stringa o null No
└content_filters matrice di AzureContentFilterForResponsesAPI Il filtro contenuto restituisce i risultati di RAI.
└* conversazione OpenAI.ConversationReference o Null No
└created_at Intero Timestamp Unix (in pochi secondi) di quando questa Risposta è stata creata.
Errore └* OpenAI.ResponseError o null
└* id Stringa Identificatore unico per questa Risposta.
└incomplete_details OpenAI.ResponseIncompleteDetails o null
└* istruzioni stringa o matrice di OpenAI.InputItem o null
└max_output_tokens integer o null No
└max_tool_calls integer o null No
Metadati └* OpenAI.Metadata o Null No
Modello └* Stringa ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAI
offre un'ampia gamma di modelli con diverse funzionalità, prestazioni
caratteristiche e punti di prezzo. Fare riferimento alla guida al modello
per esplorare e confrontare i modelli disponibili.
No
Oggetto └* Enum Il tipo di oggetto di questa risorsa - sempre impostato a response.
Valori possibili: response
└* output matrice di OpenAI.OutputItem Una serie di elementi di contenuto generati dal modello.
- La lunghezza e l'ordine degli elementi nella output matrice dipendono
sulla risposta del modello.
- Anziché accedere al primo elemento nella output matrice e
presupponendo che si tratti di un assistant messaggio con il contenuto generato da
il modello, è consigliabile usare la proprietà in output_text cui
supportato negli SDK.
└output_text stringa o null No
└parallel_tool_calls Boolean Se permettere al modello di eseguire chiamate di strumenti in parallelo. Vero
└previous_response_id stringa o null No
└* prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
└prompt_cache_key Stringa Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo. Altre informazioni. No
└prompt_cache_retention stringa o null No
└* ragionamento OpenAI.Reasoning o null No
└safety_identifier Stringa Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI.
Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni.
No
└* stato Enum Lo stato della generazione della risposta. Uno di completed, failed,
in_progress cancelled, queued, o incomplete.
Valori possibili: completed, failed, in_progress, cancelled, queued, incomplete
No
└* temperatura number o null No 1
└* testo OpenAI.ResponseTextParam Opzioni di configurazione per una risposta testuale dal modello. Può essere semplice
dati JSON strutturati o di testo. Ulteriori informazioni:
- Input di testo e output
- Output strutturati
No
└tool_choice OpenAI.ToolChoiceParam Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione
una risposta. Vedere il tools parametro per vedere come specificare gli strumenti
il modello può chiamare.
No
Strumenti └* OpenAI.ToolsArray Una serie di strumenti che il modello può chiamare mentre genera una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .
Sono supportate le categorie di strumenti seguenti:
- Strumenti integrati: Strumenti forniti da OpenAI che estendono la
funzionalità del modello, ad esempio la ricerca Web
o ricerca di file. Altre informazioni
strumenti predefiniti.
- Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati
o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni
Strumenti MCP.
- Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente,
abilitazione del modello per chiamare il proprio codice con argomenti fortemente tipizzato
e output. Altre informazioni
chiamata di funzione. È anche possibile usare
strumenti personalizzati per chiamare il proprio codice.
No
└top_logprobs integer o null No
└top_p number o null No 1
└\ troncamento stringa o null No Disabili
└* utilizzo OpenAI.ResponseUsage Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output,
suddivisione dei token di output e dei token totali usati.
No
└* utente stringa (deprecata) Questo campo viene sostituito da safety_identifier e prompt_cache_key. Usare prompt_cache_key invece per mantenere le ottimizzazioni della memorizzazione nella cache.
Identificatore stabile per gli utenti finali.
Usato per aumentare la frequenza di riscontri nella cache migliorando il bucket di richieste simili e per consentire a OpenAI di rilevare e prevenire abusi. Altre informazioni.
No
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Il tipo di evento. Sempre response.in_progress.
Valori possibili: response.in_progress

OpenAI.ResponseIncompleteDetails

Nome Digitare Descrizione Obbligatorio Predefinito
Motivo Enum
Valori possibili: max_output_tokens, content_filter
No

OpenAI.ResponseIncompleteEvent

Un evento che viene emesso quando una risposta termina come incompleta.

Nome Digitare Descrizione Obbligatorio Predefinito
Risposta OpenAI.Response
└* sfondo booleano o null No
└completed_at stringa o null No
└content_filters matrice di AzureContentFilterForResponsesAPI Il filtro contenuto restituisce i risultati di RAI.
└* conversazione OpenAI.ConversationReference o Null No
└created_at Intero Timestamp Unix (in pochi secondi) di quando questa Risposta è stata creata.
Errore └* OpenAI.ResponseError o null
└* id Stringa Identificatore unico per questa Risposta.
└incomplete_details OpenAI.ResponseIncompleteDetails o null
└* istruzioni stringa o matrice di OpenAI.InputItem o null
└max_output_tokens integer o null No
└max_tool_calls integer o null No
Metadati └* OpenAI.Metadata o Null No
Modello └* Stringa ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAI
offre un'ampia gamma di modelli con diverse funzionalità, prestazioni
caratteristiche e punti di prezzo. Fare riferimento alla guida al modello
per esplorare e confrontare i modelli disponibili.
No
Oggetto └* Enum Il tipo di oggetto di questa risorsa - sempre impostato a response.
Valori possibili: response
└* output matrice di OpenAI.OutputItem Una serie di elementi di contenuto generati dal modello.
- La lunghezza e l'ordine degli elementi nella output matrice dipendono
sulla risposta del modello.
- Anziché accedere al primo elemento nella output matrice e
presupponendo che si tratti di un assistant messaggio con il contenuto generato da
il modello, è consigliabile usare la proprietà in output_text cui
supportato negli SDK.
└output_text stringa o null No
└parallel_tool_calls Boolean Se permettere al modello di eseguire chiamate di strumenti in parallelo. Vero
└previous_response_id stringa o null No
└* prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
└prompt_cache_key Stringa Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo. Altre informazioni. No
└prompt_cache_retention stringa o null No
└* ragionamento OpenAI.Reasoning o null No
└safety_identifier Stringa Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI.
Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni.
No
└* stato Enum Lo stato della generazione della risposta. Uno di completed, failed,
in_progress cancelled, queued, o incomplete.
Valori possibili: completed, failed, in_progress, cancelled, queued, incomplete
No
└* temperatura number o null No 1
└* testo OpenAI.ResponseTextParam Opzioni di configurazione per una risposta testuale dal modello. Può essere semplice
dati JSON strutturati o di testo. Ulteriori informazioni:
- Input di testo e output
- Output strutturati
No
└tool_choice OpenAI.ToolChoiceParam Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione
una risposta. Vedere il tools parametro per vedere come specificare gli strumenti
il modello può chiamare.
No
Strumenti └* OpenAI.ToolsArray Una serie di strumenti che il modello può chiamare mentre genera una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .
Sono supportate le categorie di strumenti seguenti:
- Strumenti integrati: Strumenti forniti da OpenAI che estendono la
funzionalità del modello, ad esempio la ricerca Web
o ricerca di file. Altre informazioni
strumenti predefiniti.
- Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati
o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni
Strumenti MCP.
- Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente,
abilitazione del modello per chiamare il proprio codice con argomenti fortemente tipizzato
e output. Altre informazioni
chiamata di funzione. È anche possibile usare
strumenti personalizzati per chiamare il proprio codice.
No
└top_logprobs integer o null No
└top_p number o null No 1
└\ troncamento stringa o null No Disabili
└* utilizzo OpenAI.ResponseUsage Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output,
suddivisione dei token di output e dei token totali usati.
No
└* utente stringa (deprecata) Questo campo viene sostituito da safety_identifier e prompt_cache_key. Usare prompt_cache_key invece per mantenere le ottimizzazioni della memorizzazione nella cache.
Identificatore stabile per gli utenti finali.
Usato per aumentare la frequenza di riscontri nella cache migliorando il bucket di richieste simili e per consentire a OpenAI di rilevare e prevenire abusi. Altre informazioni.
No
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Il tipo di evento. Sempre response.incomplete.
Valori possibili: response.incomplete

OpenAI.ResponseItemList

Una lista di elementi di risposta.

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.ItemResource Un elenco degli elementi usati per generare questa risposta.
first_id Stringa L'ID del primo elemento della lista.
has_more Boolean Se ci sono altri articoli disponibili.
last_id Stringa L'ID dell'ultimo elemento della lista.
Oggetto Enum Il tipo di oggetto restituito deve essere list.
Valori possibili: list

OpenAI.ResponseLogProb

Un logprob è la probabilità logaritmica assegnata dal modello alla produzione di un token specifico in una determinata posizione nella sequenza. I valori di logprob meno negativi (superiori) indicano maggiore attendibilità del modello in tale scelta di token.

Nome Digitare Descrizione Obbligatorio Predefinito
logprob Numero La probabilità logaritmica di questo token.
Token Stringa Un possibile token di testo.
top_logprobs matrice di OpenAI.ResponseLogProbTopLogprobs Probabilità di log dei primi 20 token più probabili. No

OpenAI.ResponseLogProbTopLogprobs

Nome Digitare Descrizione Obbligatorio Predefinito
logprob Numero No
Token Stringa No

OpenAI.ResponseMCPCallArgumentsDeltaEvent

Generato quando è presente un delta (aggiornamento parziale) agli argomenti di una chiamata allo strumento MCP.

Nome Digitare Descrizione Obbligatorio Predefinito
Delta Stringa Stringa JSON contenente l'aggiornamento parziale agli argomenti per la chiamata allo strumento MCP.
item_id Stringa Identificatore univoco dell'elemento di chiamata dello strumento MCP in fase di elaborazione.
output_index Intero Indice dell'elemento di output nella matrice di output della risposta.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Il tipo di evento. Sempre "response.mcp_call_arguments.delta".
Valori possibili: response.mcp_call_arguments.delta

OpenAI.ResponseMCPCallFailedEvent

Generato quando una chiamata allo strumento MCP non è riuscita.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa ID dell'elemento di chiamata dello strumento MCP non riuscito.
output_index Intero Indice dell'elemento di output non riuscito.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Il tipo di evento. Sempre 'response.mcp_call.failed'.
Valori possibili: response.mcp_call.failed

OpenAI.ResponseMCPCallInProgressEvent

Generato quando è in corso una chiamata allo strumento MCP.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa Identificatore univoco dell'elemento di chiamata dello strumento MCP in fase di elaborazione.
output_index Intero Indice dell'elemento di output nella matrice di output della risposta.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Il tipo di evento. Sempre 'response.mcp_call.in_progress'.
Valori possibili: response.mcp_call.in_progress

OpenAI.ResponseMCPListToolsFailedEvent

Generato quando il tentativo di elencare gli strumenti MCP disponibili non è riuscito.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa ID dell'elemento di chiamata dello strumento MCP non riuscito.
output_index Intero Indice dell'elemento di output non riuscito.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Il tipo di evento. Sempre 'response.mcp_list_tools.failed'.
Valori possibili: response.mcp_list_tools.failed

OpenAI.ResponseMCPListToolsInProgressEvent

Generato quando il sistema è in corso di recupero dell'elenco degli strumenti MCP disponibili.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa ID dell'elemento di chiamata dello strumento MCP in fase di elaborazione.
output_index Intero Indice dell'elemento di output da elaborare.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Il tipo di evento. Sempre 'response.mcp_list_tools.in_progress'.
Valori possibili: response.mcp_list_tools.in_progress

OpenAI.ResponseModalities

Tipi di output che vorresti che il modello generasse. La maggior parte dei modelli è in grado di generare testo, ovvero l'impostazione predefinita: ["text"] Il gpt-4o-audio-preview modello può essere usato anche per generare audio. Per richiedere che questo modello generi risposte sia di testo che audio, è possibile usare: ["text", "audio"]

Questo schema accetta uno dei tipi seguenti:

  • Matrice
  • Null

OpenAI.ResponseOutputItemAddedEvent

Emessa quando viene aggiunto un nuovo elemento di output.

Nome Digitare Descrizione Obbligatorio Predefinito
Elemento OpenAI.OutputItem
Tipo └* OpenAI.OutputItemType
output_index Intero L'indice dell'elemento di output che è stato aggiunto.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Il tipo di evento. Sempre response.output_item.added.
Valori possibili: response.output_item.added

OpenAI.ResponseOutputTextAnnotationAddedEvent

Generato quando viene aggiunta un'annotazione al contenuto di testo di output.

Nome Digitare Descrizione Obbligatorio Predefinito
Annotazione OpenAI.Annotation Annotazione applicabile a un intervallo di testo di output.
Tipo └* OpenAI.AnnotationType
annotation_index Intero Indice dell'annotazione all'interno della parte del contenuto.
content_index Intero Indice della parte di contenuto all'interno dell'elemento di output.
item_id Stringa Identificatore univoco dell'elemento a cui viene aggiunta l'annotazione.
output_index Intero Indice dell'elemento di output nella matrice di output della risposta.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Il tipo di evento. Sempre 'response.output_text.annotation.added'.
Valori possibili: response.output_text.annotation.added

OpenAI.ResponsePromptVariables

Mapping facoltativo dei valori da sostituire con le variabili nel prompt. I valori di sostituzione possono essere stringhe o altri tipi di input response, ad esempio immagini o file.

Tipo: oggetto

OpenAI.ResponseQueuedEvent

Generato quando una risposta viene accodata e in attesa di essere elaborata.

Nome Digitare Descrizione Obbligatorio Predefinito
Risposta OpenAI.Response
└* sfondo booleano o null No
└completed_at stringa o null No
└content_filters matrice di AzureContentFilterForResponsesAPI Il filtro contenuto restituisce i risultati di RAI.
└* conversazione OpenAI.ConversationReference o Null No
└created_at Intero Timestamp Unix (in pochi secondi) di quando questa Risposta è stata creata.
Errore └* OpenAI.ResponseError o null
└* id Stringa Identificatore unico per questa Risposta.
└incomplete_details OpenAI.ResponseIncompleteDetails o null
└* istruzioni stringa o matrice di OpenAI.InputItem o null
└max_output_tokens integer o null No
└max_tool_calls integer o null No
Metadati └* OpenAI.Metadata o Null No
Modello └* Stringa ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAI
offre un'ampia gamma di modelli con diverse funzionalità, prestazioni
caratteristiche e punti di prezzo. Fare riferimento alla guida al modello
per esplorare e confrontare i modelli disponibili.
No
Oggetto └* Enum Il tipo di oggetto di questa risorsa - sempre impostato a response.
Valori possibili: response
└* output matrice di OpenAI.OutputItem Una serie di elementi di contenuto generati dal modello.
- La lunghezza e l'ordine degli elementi nella output matrice dipendono
sulla risposta del modello.
- Anziché accedere al primo elemento nella output matrice e
presupponendo che si tratti di un assistant messaggio con il contenuto generato da
il modello, è consigliabile usare la proprietà in output_text cui
supportato negli SDK.
└output_text stringa o null No
└parallel_tool_calls Boolean Se permettere al modello di eseguire chiamate di strumenti in parallelo. Vero
└previous_response_id stringa o null No
└* prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
Altre informazioni.
No
└prompt_cache_key Stringa Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo. Altre informazioni. No
└prompt_cache_retention stringa o null No
└* ragionamento OpenAI.Reasoning o null No
└safety_identifier Stringa Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI.
Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni.
No
└* stato Enum Lo stato della generazione della risposta. Uno di completed, failed,
in_progress cancelled, queued, o incomplete.
Valori possibili: completed, failed, in_progress, cancelled, queued, incomplete
No
└* temperatura number o null No 1
└* testo OpenAI.ResponseTextParam Opzioni di configurazione per una risposta testuale dal modello. Può essere semplice
dati JSON strutturati o di testo. Ulteriori informazioni:
- Input di testo e output
- Output strutturati
No
└tool_choice OpenAI.ToolChoiceParam Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione
una risposta. Vedere il tools parametro per vedere come specificare gli strumenti
il modello può chiamare.
No
Strumenti └* OpenAI.ToolsArray Una serie di strumenti che il modello può chiamare mentre genera una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .
Sono supportate le categorie di strumenti seguenti:
- Strumenti integrati: Strumenti forniti da OpenAI che estendono la
funzionalità del modello, ad esempio la ricerca Web
o ricerca di file. Altre informazioni
strumenti predefiniti.
- Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati
o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni
Strumenti MCP.
- Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente,
abilitazione del modello per chiamare il proprio codice con argomenti fortemente tipizzato
e output. Altre informazioni
chiamata di funzione. È anche possibile usare
strumenti personalizzati per chiamare il proprio codice.
No
└top_logprobs integer o null No
└top_p number o null No 1
└\ troncamento stringa o null No Disabili
└* utilizzo OpenAI.ResponseUsage Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output,
suddivisione dei token di output e dei token totali usati.
No
└* utente stringa (deprecata) Questo campo viene sostituito da safety_identifier e prompt_cache_key. Usare prompt_cache_key invece per mantenere le ottimizzazioni della memorizzazione nella cache.
Identificatore stabile per gli utenti finali.
Usato per aumentare la frequenza di riscontri nella cache migliorando il bucket di richieste simili e per consentire a OpenAI di rilevare e prevenire abusi. Altre informazioni.
No
sequence_number Intero Numero di sequenza per questo evento.
digitare Enum Il tipo di evento. Sempre 'response.queued'.
Valori possibili: response.queued

OpenAI.ResponseReasoningSummaryPartAddedEvent

Generato quando viene aggiunta una nuova parte di riepilogo del ragionamento.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa L'ID dell'elemento a cui è associata questa parte di riepilogo.
output_index Intero L'indice dell'elemento di output a cui è associata questa parte di riepilogo.
Parte OpenAI.ResponseReasoningSummaryPartAddedEventPart
└* testo Stringa
Tipo └* Enum
Valori possibili: summary_text
sequence_number Intero Numero di sequenza di questo evento.
summary_index Intero Indice della parte di riepilogo all'interno del riepilogo del ragionamento.
digitare Enum Il tipo di evento. Sempre response.reasoning_summary_part.added.
Valori possibili: response.reasoning_summary_part.added

OpenAI.ResponseReasoningSummaryPartAddedEventPart

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa
digitare Enum
Valori possibili: summary_text

OpenAI.ResponseReasoningSummaryTextDeltaEvent

Generato quando un delta viene aggiunto a un testo di riepilogo del ragionamento.

Nome Digitare Descrizione Obbligatorio Predefinito
Delta Stringa Delta del testo aggiunto al riepilogo.
item_id Stringa L'ID dell'elemento a cui è associato questo delta del testo di riepilogo.
output_index Intero L'indice dell'elemento di output a cui è associato questo delta del testo di riepilogo.
sequence_number Intero Numero di sequenza di questo evento.
summary_index Intero Indice della parte di riepilogo all'interno del riepilogo del ragionamento.
digitare Enum Il tipo di evento. Sempre response.reasoning_summary_text.delta.
Valori possibili: response.reasoning_summary_text.delta

OpenAI.ResponseReasoningTextDeltaEvent

Generato quando un delta viene aggiunto a un testo di ragionamento.

Nome Digitare Descrizione Obbligatorio Predefinito
content_index Intero L'indice della parte del contenuto di ragionamento a cui è associato questo delta.
Delta Stringa Delta del testo aggiunto al contenuto del ragionamento.
item_id Stringa L'ID dell'elemento a cui è associato questo delta del testo di ragionamento.
output_index Intero L'indice dell'elemento di output a cui è associato questo delta del testo di ragionamento.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Il tipo di evento. Sempre response.reasoning_text.delta.
Valori possibili: response.reasoning_text.delta

OpenAI.ResponseRefusalDeltaEvent

Emessa quando c'è un testo di rifiuto parziale.

Nome Digitare Descrizione Obbligatorio Predefinito
content_index Intero L'indice del contenuto a cui viene aggiunto il testo del rifiuto.
Delta Stringa Il testo di rifiuto che viene aggiunto.
item_id Stringa L'ID dell'elemento di output a cui viene aggiunto il testo di rifiuto.
output_index Intero L'indice dell'elemento di output a cui viene aggiunto il testo di rifiuto.
sequence_number Intero Numero di sequenza di questo evento.
digitare Enum Il tipo di evento. Sempre response.refusal.delta.
Valori possibili: response.refusal.delta

OpenAI.ResponseStreamOptions

Opzioni per le risposte in streaming. Imposta questo solo quando imposti stream: true.

Nome Digitare Descrizione Obbligatorio Predefinito
include_obfuscation Boolean Se true, l'offuscamento del flusso verrà abilitato. Aggiunta dell'offuscamento del flusso
caratteri casuali in un obfuscation campo sugli eventi delta di streaming a
normalizzare le dimensioni del payload come mitigazione per determinati attacchi sul canale laterale.
Questi campi offuscamento sono inclusi per impostazione predefinita, ma aggiungono una piccola quantità
sovraccarico per il flusso di dati. È possibile impostare su include_obfuscation
false per ottimizzare la larghezza di banda se si considera attendibile il collegamento di rete tra
l'applicazione e l'API OpenAI.
No

OpenAI.ResponseTextDeltaEvent

Emessa quando c'è un delta di testo aggiuntivo.

Nome Digitare Descrizione Obbligatorio Predefinito
content_index Intero L'indice della parte di contenuto a cui è stato aggiunto il delta di testo.
Delta Stringa Il testo delta che è stato aggiunto.
item_id Stringa L'ID dell'elemento di output a cui è stato aggiunto il delta di testo.
logprobs matrice di OpenAI.ResponseLogProb Probabilità di log dei token nel delta.
output_index Intero L'indice dell'elemento di output a cui è stato aggiunto il delta di testo.
sequence_number Intero Numero di sequenza per questo evento.
digitare Enum Il tipo di evento. Sempre response.output_text.delta.
Valori possibili: response.output_text.delta

OpenAI.ResponseTextParam

Opzioni di configurazione per una risposta testuale dal modello. Possono essere dati in testo semplice o JSON strutturati. Ulteriori informazioni:

Nome Digitare Descrizione Obbligatorio Predefinito
Formato OpenAI.TextResponseFormatConfiguration Un oggetto che specifica il formato che il modello deve generare.
La configurazione { "type": "json_schema" } abilita output strutturati,
che garantisce che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere

Il formato predefinito è { "type": "text" } senza opzioni aggiuntive.
*Non consigliato per i modelli gpt-4o e versioni successive:
L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, che
garantisce che il messaggio generato dal modello sia JSON valido. Utilizzando json_schema
è preferibile per i modelli che lo supportano.
No
Dettaglio OpenAI.Verbosity Vincola il livello di dettaglio della risposta del modello. I valori inferiori genereranno
risposte più concise, mentre valori più elevati generano risposte più dettagliate.
I valori attualmente supportati sono low, medium, e high.
No

OpenAI.ResponseUsage

Rappresenta i dettagli sull'utilizzo dei token inclusi token di input, token di output, una suddivisione dei token di output e il totale dei token utilizzati.

Nome Digitare Descrizione Obbligatorio Predefinito
input_tokens Intero Il numero di token di input.
input_tokens_details OpenAI.ResponseUsageInputTokensDetails
└cached_tokens Intero
output_tokens Intero Il numero di token di output.
output_tokens_details OpenAI.ResponseUsageOutputTokensDetails
└reasoning_tokens Intero
total_tokens Intero Il numero totale di gettoni utilizzati.

OpenAI.ResponseUsageInputTokensDetails

Nome Digitare Descrizione Obbligatorio Predefinito
cached_tokens Intero

OpenAI.ResponseUsageOutputTokensDetails

Nome Digitare Descrizione Obbligatorio Predefinito
reasoning_tokens Intero

OpenAI.ResponseWebSearchCallInProgressEvent

Nota: web_search non è ancora disponibile tramite Azure OpenAI.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa ID univoco per l'elemento di output associato alla chiamata di ricerca Web.
output_index Intero Indice dell'elemento di output a cui è associata la chiamata di ricerca Web.
sequence_number Intero Numero di sequenza della chiamata di ricerca Web in corso di elaborazione.
digitare Enum Il tipo di evento. Sempre response.web_search_call.in_progress.
Valori possibili: response.web_search_call.in_progress

OpenAI.ResponseWebSearchCallSearchingEvent

Nota: web_search non è ancora disponibile tramite Azure OpenAI.

Nome Digitare Descrizione Obbligatorio Predefinito
item_id Stringa ID univoco per l'elemento di output associato alla chiamata di ricerca Web.
output_index Intero Indice dell'elemento di output a cui è associata la chiamata di ricerca Web.
sequence_number Intero Numero di sequenza della chiamata di ricerca Web in corso di elaborazione.
digitare Enum Il tipo di evento. Sempre response.web_search_call.searching.
Valori possibili: response.web_search_call.searching

OpenAI.RunCompletionUsage

Statistiche di utilizzo relative alla corsa. Questo valore sarà null se l'esecuzione non è in uno stato terminale (ad esempio in_progress, e queuedcosì via).

Nome Digitare Descrizione Obbligatorio Predefinito
completion_tokens Intero Numero di gettoni di completamento usati durante la run.
prompt_tokens Intero Numero di token prompt usati durante la run.
total_tokens Intero Numero totale di gettoni utilizzati (prompt + completamento).

OpenAI.RunGraderRequest

Nome Digitare Descrizione Obbligatorio Predefinito
Selezionatore OpenAI.GraderStringCheck o OpenAI.GraderTextSimilarity o OpenAI.GraderPython o OpenAI.GraderScoreModel o OpenAI.GraderMulti o GraderEndpoint Grader utilizzato per il processo di ottimizzazione.
Elemento OpenAI.RunGraderRequestItem No
model_sample Stringa Esempio di modello da valutare. Questo valore verrà usato per popolare
spazio sample dei nomi. Per altri dettagli, vedere la guida .
La output_json variabile verrà popolata se l'esempio di modello è un
stringa JSON valida.

OpenAI.RunGraderRequestItem

Tipo: oggetto

OpenAI.RunGraderResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati OpenAI.RunGraderResponseMetadata
model_grader_token_usage_per_model Oggetto
Ricompensa Numero
sub_rewards Oggetto

OpenAI.RunGraderResponseMetadata

Nome Digitare Descrizione Obbligatorio Predefinito
Errori OpenAI.RunGraderResponseMetadataErrors
execution_time Numero
Nome Stringa
sampled_model_name stringa o null
Punteggi Oggetto
token_usage integer o null
digitare Stringa

OpenAI.RunGraderResponseMetadataErrors

Nome Digitare Descrizione Obbligatorio Predefinito
formula_parse_error Boolean
invalid_variable_error Boolean
model_grader_parse_error Boolean
model_grader_refusal_error Boolean
model_grader_server_error Boolean
model_grader_server_error_details stringa o null
other_error Boolean
python_grader_runtime_error Boolean
python_grader_runtime_error_details stringa o null
python_grader_server_error Boolean
python_grader_server_error_type stringa o null
sample_parse_error Boolean
truncated_observation_error Boolean
unresponsive_reward_error Boolean

OpenAI.RunObject

Rappresenta un'esecuzione eseguita in un thread.

Nome Digitare Descrizione Obbligatorio Predefinito
assistant_id Stringa ID dell'assistente utilizzato per l'esecuzione di questa esecuzione.
cancelled_at stringa o null Il timestamp Unix (in pochi secondi) indicava quando l'esecuzione veniva annullata.
completed_at stringa o null Il timestamp Unix (in pochi secondi) indica quando l'esecuzione è stata completata.
created_at Intero Il timestamp Unix (in secondi) indicava quando l'esecuzione è stata creata.
expires_at stringa o null Il timestamp Unix (in pochi secondi) indica quando l'esecuzione scaderà.
failed_at stringa o null Il timestamp Unix (in pochi secondi) indica quando l'esecuzione falliva.
Id Stringa L'identificatore, che può essere consultato negli endpoint API.
incomplete_details OpenAI.RunObjectIncompleteDetails o null Dettagli sul perché la run è incompleta. null Sarà se l'esecuzione non è incompleta.
Istruzioni Stringa Istruzioni usate dall'assistente per questa esecuzione.
last_error OpenAI.RunObjectLastError o null L'ultimo errore associato a questa corsa. Lo null sarà se non ci sono errori.
max_completion_tokens integer o null Il numero massimo di gettoni di completamento specificati da utilizzare durante la corsa.
max_prompt_tokens integer o null Il numero massimo di token prompt specificati da utilizzare durante la corsa.
Metadati OpenAI.Metadata o Null
Modello Stringa Modello utilizzato dall'assistente per questa esecuzione.
Oggetto Enum Il tipo di oggetto, che è sempre thread.run.
Valori possibili: thread.run
parallel_tool_calls OpenAI.ParallelToolCalls Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento.
required_action OpenAI.RunObjectRequiredAction o null Dettagli sull'azione necessaria per continuare la corsa. Lo null sarà se non è necessaria alcuna azione.
response_format OpenAI.AssistantsApiResponseFormatOption Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.
L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere
Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.
Importante:* quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto.
started_at stringa o null Il timestamp Unix (in pochi secondi) indica quando è stata avviata la run.
Stato OpenAI.RunStatus Stato dell'esecuzione, che può essere queued, , in_progressrequires_action, cancelling, cancelled, failedcompleted, , incomplete, o expired.
Temperatura number o null La temperatura di campionamento utilizzata per questa prova. Se non impostato, il valore predefinito è 1. No
thread_id Stringa ID del thread eseguito in come parte di questa esecuzione.
tool_choice OpenAI.AssistantsApiToolChoiceOption Controlla quale (se presente) strumento viene chiamato dal modello.
none significa che il modello non richiamerà nessuno strumento ma invece genera un messaggio.
auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.
required indica che il modello deve chiamare uno o più strumenti prima di rispondere all'utente.
Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo.
Strumenti matrice di OpenAI.AssistantTool Elenco di strumenti usati dall'assistente per questa esecuzione. []
top_p number o null Il valore di campionamento del nucleo utilizzato per questa corsa. Se non impostato, il valore predefinito è 1. No
truncation_strategy OpenAI.TruncationObject Controlli su come un thread verrà troncato prima dell'esecuzione. Usa questo per controllare la finestra contestuale iniziale della run.
Utilizzo OpenAI.RunCompletionUsage o Null

OpenAI.RunObjectIncompleteDetails

Nome Digitare Descrizione Obbligatorio Predefinito
Motivo Enum
Valori possibili: max_completion_tokens, max_prompt_tokens
No

OpenAI.RunObjectLastError

Nome Digitare Descrizione Obbligatorio Predefinito
Codice Enum
Valori possibili: server_error, rate_limit_exceeded, invalid_prompt
Messaggio Stringa

OpenAI.RunObjectRequiredAction

Nome Digitare Descrizione Obbligatorio Predefinito
submit_tool_outputs OpenAI.RunObjectRequiredActionSubmitToolOutputs
digitare Enum
Valori possibili: submit_tool_outputs

OpenAI.RunObjectRequiredActionSubmitToolOutputs

Nome Digitare Descrizione Obbligatorio Predefinito
tool_calls matrice di OpenAI.RunToolCallObject

OpenAI.RunStatus

Stato dell'esecuzione, che può essere queued, , in_progressrequires_action, cancelling, cancelled, failedcompleted, , incomplete, o expired.

Proprietà Valore
Digitare Stringa
Valori queued
in_progress
requires_action
cancelling
cancelled
failed
completed
incomplete
expired

OpenAI.RunStepCompletionUsage

Statistiche di utilizzo relative al passo di corsa. Questo valore sarà null mentre lo stato del passo di corsa è in_progress.

Nome Digitare Descrizione Obbligatorio Predefinito
completion_tokens Intero Numero di token di completamento utilizzati durante la fase di corsa.
prompt_tokens Intero Numero di gettoni di prompt usati durante il passo di corsa.
total_tokens Intero Numero totale di gettoni utilizzati (prompt + completamento).

OpenAI.RunStepDetailsMessageCreationObject

Dettagli della creazione del messaggio per passo di esecuzione.

Nome Digitare Descrizione Obbligatorio Predefinito
message_creation OpenAI.RunStepDetailsMessageCreationObjectMessageCreation
digitare Enum Sempre message_creation.
Valori possibili: message_creation

OpenAI.RunStepDetailsMessageCreationObjectMessageCreation

Nome Digitare Descrizione Obbligatorio Predefinito
message_id Stringa

OpenAI.RunStepDetailsToolCall

Discriminare per OpenAI.RunStepDetailsToolCall

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
code_interpreter OpenAI.RunStepDetailsToolCallsCodeObject
file_search OpenAI.RunStepDetailsToolCallsFileSearchObject
function OpenAI.RunStepDetailsToolCallsFunctionObject
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.RunStepDetailsToolCallType

OpenAI.RunStepDetailsToolCallType

Proprietà Valore
Digitare Stringa
Valori code_interpreter
file_search
function

OpenAI.RunStepDetailsToolCallsCodeObject

I dettagli dello strumento Code Interpreter chiamano il passo di esecuzione in cui era coinvolto.

Nome Digitare Descrizione Obbligatorio Predefinito
code_interpreter OpenAI.RunStepDetailsToolCallsCodeObjectCodeInterpreter
Input └* Stringa
└* output matrice di OpenAI.RunStepDetailsToolCallsCodeOutputLogsObject o OpenAI.RunStepDetailsToolCallsCodeOutputImageObject
Id Stringa L'ID della chiamata dello strumento.
digitare Enum Il tipo di chiamata di attrezzo. Questo sarà code_interpreter sempre per questo tipo di chiamata di strumenti.
Valori possibili: code_interpreter

OpenAI.RunStepDetailsToolCallsCodeObjectCodeInterpreter

Nome Digitare Descrizione Obbligatorio Predefinito
Input Stringa
Uscite matrice di OpenAI.RunStepDetailsToolCallsCodeOutputLogsObject o OpenAI.RunStepDetailsToolCallsCodeOutputImageObject

OpenAI.RunStepDetailsToolCallsCodeOutputImageObject

Nome Digitare Descrizione Obbligatorio Predefinito
Immagine OpenAI.RunStepDetailsToolCallsCodeOutputImageObjectImage
digitare Enum Sempre image.
Valori possibili: image

OpenAI.RunStepDetailsToolCallsCodeOutputImageObjectImage

Nome Digitare Descrizione Obbligatorio Predefinito
File_id Stringa

OpenAI.RunStepDetailsToolCallsCodeOutputLogsObject

L'output di testo dallo strumento Code Interpreter chiama come parte di un run step.

Nome Digitare Descrizione Obbligatorio Predefinito
Registri Stringa L'output del testo dallo strumento Code Interpreter chiama.
digitare Enum Sempre logs.
Valori possibili: logs

OpenAI.RunStepDetailsToolCallsFileSearchObject

Nome Digitare Descrizione Obbligatorio Predefinito
file_search OpenAI.RunStepDetailsToolCallsFileSearchObjectFileSearch
└ranking_options OpenAI.RunStepDetailsToolCallsFileSearchRankingOptionsObject Opzioni di classificazione per la ricerca di file. No
└* risultati matrice di OpenAI.RunStepDetailsToolCallsFileSearchResultObject No
Id Stringa L'ID dell'oggetto di chiamata dello strumento.
digitare Enum Il tipo di chiamata di attrezzo. Questo sarà file_search sempre per questo tipo di chiamata di strumenti.
Valori possibili: file_search

OpenAI.RunStepDetailsToolCallsFileSearchObjectFileSearch

Nome Digitare Descrizione Obbligatorio Predefinito
ranking_options OpenAI.RunStepDetailsToolCallsFileSearchRankingOptionsObject Opzioni di classificazione per la ricerca di file. No
Risultati matrice di OpenAI.RunStepDetailsToolCallsFileSearchResultObject No

OpenAI.RunStepDetailsToolCallsFileSearchRankingOptionsObject

Opzioni di classificazione per la ricerca di file.

Nome Digitare Descrizione Obbligatorio Predefinito
ranker OpenAI.FileSearchRanker Il ranker da usare per la ricerca dei file. Se non specificato, userà il auto ranker.
score_threshold Numero Soglia del punteggio per la ricerca di file. Tutti i valori devono essere un numero in virgola mobile compreso tra 0 e 1.
Vincoli: min: 0, max: 1

OpenAI.RunStepDetailsToolCallsFileSearchResultObject

Un'istanza risultante della ricerca file.

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto matrice di OpenAI.RunStepDetailsToolCallsFileSearchResultObjectContent Il contenuto del risultato che è stato trovato. Il contenuto è incluso solo se richiesto tramite il parametro di query include. No
File_id Stringa L'ID del file in cui è stato trovato quel risultato.
file_name Stringa Il nome del file in cui è stato trovato quel risultato.
Punteggio Numero Il punteggio del risultato. Tutti i valori devono essere un numero in virgola mobile compreso tra 0 e 1.
Vincoli: min: 0, max: 1

OpenAI.RunStepDetailsToolCallsFileSearchResultObjectContent

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa No
digitare Enum
Valori possibili: text
No

OpenAI.RunStepDetailsToolCallsFunctionObject

Nome Digitare Descrizione Obbligatorio Predefinito
Funzione OpenAI.RunStepDetailsToolCallsFunctionObjectFunction
Argomenti └* Stringa
└> nome Stringa
└* output stringa o null
Id Stringa L'ID dell'oggetto di chiamata dello strumento.
digitare Enum Il tipo di chiamata di attrezzo. Questo sarà function sempre per questo tipo di chiamata di strumenti.
Valori possibili: function

OpenAI.RunStepDetailsToolCallsFunctionObjectFunction

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa
Nome Stringa
Output stringa o null

OpenAI.RunStepDetailsToolCallsObject

Dettagli della chiamata dello strumento.

Nome Digitare Descrizione Obbligatorio Predefinito
tool_calls matrice di OpenAI.RunStepDetailsToolCall Una serie di chiamate di strumenti a cui il run step era coinvolto. Questi possono essere associati a uno dei tre tipi di strumenti: code_interpreter, file_searcho function.
digitare Enum Sempre tool_calls.
Valori possibili: tool_calls

OpenAI.RunStepObject

Rappresenta un passaggio nell'esecuzione di una corsa.

Nome Digitare Descrizione Obbligatorio Predefinito
assistant_id Stringa ID dell'assistente associato al passaggio di esecuzione.
cancelled_at stringa o null
completed_at stringa o null
created_at Intero Il timestamp Unix (in secondi) indica quando è stato creato il passo di esecuzione.
expired_at stringa o null
failed_at stringa o null
Id Stringa L'identificatore del passo di esecuzione, che può essere riferito negli endpoint API.
last_error OpenAI.RunStepObjectLastError o null
Metadati OpenAI.Metadata o Null
Oggetto Enum Il tipo di oggetto, che è sempre thread.run.step.
Valori possibili: thread.run.step
run_id Stringa ID dell'esecuzione di cui fa parte questo passaggio di esecuzione.
Stato Enum Stato del passaggio di esecuzione, che può essere in_progress, , cancelledfailed, completedo expired.
Valori possibili: in_progress, cancelled, failed, completed, expired
step_details OpenAI.RunStepDetailsMessageCreationObject o OpenAI.RunStepDetailsToolCallsObject I dettagli del passo di corsa.
thread_id Stringa ID del thread eseguito.
digitare Enum Il tipo di passo di corsa, che può essere o message_creation o tool_calls.
Valori possibili: message_creation, tool_calls
Utilizzo OpenAI.RunStepCompletionUsage Statistiche di utilizzo relative al passo di corsa. Questo valore sarà null mentre lo stato del passo di corsa è in_progress.

OpenAI.RunStepObjectLastError

Nome Digitare Descrizione Obbligatorio Predefinito
Codice Enum
Valori possibili: server_error, rate_limit_exceeded
Messaggio Stringa

OpenAI.RunToolCallObject

Oggetti di chiamata degli strumenti

Nome Digitare Descrizione Obbligatorio Predefinito
Funzione OpenAI.RunToolCallObjectFunction
Argomenti └* Stringa
└> nome Stringa
Id Stringa L'ID della chiamata dello strumento. Questo ID deve essere fatto riferimento quando si inviano gli output dello strumento in usando gli output dello strumento Invia per eseguire l'endpoint.
digitare Enum Il tipo di chiamata dello strumento per cui è richiesta l'output. Per ora, questo è sempre function.
Valori possibili: function

OpenAI.RunToolCallObjectFunction

Nome Digitare Descrizione Obbligatorio Predefinito
Argomenti Stringa
Nome Stringa

OpenAI.Screenshot

Un'azione di screenshot.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Specifica il tipo di evento. Per un'azione screenshot, questa proprietà è
sempre impostato su screenshot.
Valori possibili: screenshot

OpenAI.Scroll

Un'azione di rotolamento.

Nome Digitare Descrizione Obbligatorio Predefinito
scroll_x Intero La distanza dello scroll orizzontale.
scroll_y Intero La distanza di scroll verticale.
digitare Enum Specifica il tipo di evento. Per un'azione di scorrimento, questa proprietà è
sempre impostato su scroll.
Valori possibili: scroll
X Intero La coordinata x in cui si è verificato lo scroll.
Y Intero La coordinata y in cui si è verificato il scroll.

OpenAI.SearchContextSize

Proprietà Valore
Digitare Stringa
Valori low
medium
high

OpenAI.SpecificApplyPatchParam

Forza il modello a chiamare lo strumento apply_patch durante l'esecuzione di una chiamata allo strumento.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Strumento da chiamare. Sempre apply_patch.
Valori possibili: apply_patch

OpenAI.SpecificFunctionShellParam

Forza il modello a chiamare lo strumento shell quando è necessaria una chiamata allo strumento.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Strumento da chiamare. Sempre shell.
Valori possibili: shell

OpenAI.StaticChunkingStrategy

Nome Digitare Descrizione Obbligatorio Predefinito
chunk_overlap_tokens Intero Il numero di token che si sovrappongono tra i chunk. Il valore predefinito è 400.
Si noti che la sovrapposizione non deve superare la metà di max_chunk_size_tokens.
max_chunk_size_tokens Intero Il numero massimo di gettoni in ogni blocco. Il valore predefinito è 800. Il valore minimo è 100 e il valore massimo è 4096.
Vincoli: min: 100, max: 4096

OpenAI.StaticChunkingStrategyRequestParam

Personalizzare la strategia di suddivisione in blocchi impostando le dimensioni dei blocchi e la sovrapposizione dei blocchi.

Nome Digitare Descrizione Obbligatorio Predefinito
Statico OpenAI.StaticChunkingStrategy
digitare Enum Sempre static.
Valori possibili: static

OpenAI.StaticChunkingStrategyResponseParam

Nome Digitare Descrizione Obbligatorio Predefinito
Statico OpenAI.StaticChunkingStrategy
digitare Enum Sempre static.
Valori possibili: static

OpenAI.StopConfiguration

Non supportato con i modelli o3 di ragionamento più recenti e o4-mini. Fino a quattro sequenze in cui l'API smetterà di generare ulteriori token. Il testo restituito non conterrà la sequenza di stop.

Questo schema accetta uno dei tipi seguenti:

  • Matrice
  • Null

OpenAI.SubmitToolOutputsRunRequest

Nome Digitare Descrizione Obbligatorio Predefinito
Flusso booleano o null No
tool_outputs matrice di OpenAI.SubmitToolOutputsRunRequestToolOutputs Un elenco degli strumenti per cui vengono inviati i risultati.

OpenAI.SubmitToolOutputsRunRequestToolOutputs

Nome Digitare Descrizione Obbligatorio Predefinito
Output Stringa No
tool_call_id Stringa No

OpenAI.Summary

Testo di riepilogo del modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Riepilogo dell'output di ragionamento del modello finora.
digitare Enum Il tipo di oggetto. Sempre summary_text.
Valori possibili: summary_text

OpenAI.SummaryTextContent

Testo di riepilogo del modello.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Riepilogo dell'output di ragionamento del modello finora.
digitare Enum Il tipo di oggetto. Sempre summary_text.
Valori possibili: summary_text

OpenAI.TextAnnotation

Discriminare per OpenAI.TextAnnotation

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
file_citation OpenAI.MessageContentTextAnnotationsFileCitationObject
file_path OpenAI.MessageContentTextAnnotationsFilePathObject
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.TextAnnotationType

OpenAI.TextAnnotationType

Proprietà Valore
Digitare Stringa
Valori file_citation
file_path

OpenAI.TextContent

Contenuto di testo.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa
digitare Enum
Valori possibili: text

OpenAI.TextResponseFormatConfiguration

Un oggetto che specifica il formato che il modello deve generare. La configurazione { "type": "json_schema" } abilita gli output strutturati, che garantisce che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere

Il formato predefinito è { "type": "text" } senza opzioni aggiuntive. Non consigliato per gpt-4o e modelli più recenti:* Impostazione per { "type": "json_object" } abilitare la modalità JSON precedente, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferito per i modelli che lo supportano.

Discriminare per OpenAI.TextResponseFormatConfiguration

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
json_schema OpenAI.TextResponseFormatJsonSchema
text OpenAI.TextResponseFormatConfigurationResponseFormatText
json_object OpenAI.TextResponseFormatConfigurationResponseFormatJsonObject
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.TextResponseFormatConfigurationType

OpenAI.TextResponseFormatConfigurationResponseFormatJsonObject

Formato della risposta dell'oggetto JSON. Metodo precedente di generazione di risposte JSON. L'uso json_schema di è consigliato per i modelli che lo supportano. Si noti che il modello non genererà JSON senza un messaggio di sistema o utente che indica a tale scopo.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Il tipo di formato di risposta da definire. Sempre json_object.
Valori possibili: json_object

OpenAI.TextResponseFormatConfigurationResponseFormatText

Formato di risposta predefinito. Usato per generare risposte di testo.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Il tipo di formato di risposta da definire. Sempre text.
Valori possibili: text

OpenAI.TextResponseFormatConfigurationType

Proprietà Valore
Digitare Stringa
Valori text
json_schema
json_object

OpenAI.TextResponseFormatJsonSchema

Formato di risposta schema JSON. Utilizzato per generare risposte JSON strutturate. Altre informazioni sugli output strutturati.

Nome Digitare Descrizione Obbligatorio Predefinito
Descrizione Stringa Descrizione del formato di risposta, usato dal modello per
determinare come rispondere nel formato.
No
Nome Stringa Il nome del formato della risposta. Deve essere a-z, A-Z, 0-9 o contenere
caratteri di sottolineatura e trattini, con una lunghezza massima di 64.
Schema OpenAI.ResponseFormatJsonSchemaSchema Lo schema per il formato di risposta, descritto come un oggetto JSON Schema.
Impara qui come costruire schemi JSON.
Rigorosa booleano o null No
digitare Enum Il tipo di formato di risposta da definire. Sempre json_schema.
Valori possibili: json_schema

OpenAI.ThreadObject

Rappresenta un thread che contiene messaggi.

Nome Digitare Descrizione Obbligatorio Predefinito
created_at Intero Il timestamp Unix (in pochi secondi) indica quando il thread è stato creato.
Id Stringa L'identificatore, che può essere consultato negli endpoint API.
Metadati OpenAI.Metadata o Null
Oggetto Enum Il tipo di oggetto, che è sempre thread.
Valori possibili: thread
tool_resources OpenAI.ThreadObjectToolResources o null

OpenAI.ThreadObjectToolResources

Nome Digitare Descrizione Obbligatorio Predefinito
code_interpreter OpenAI.ThreadObjectToolResourcesCodeInterpreter No
file_search OpenAI.ThreadObjectToolResourcesFileSearch No

OpenAI.ThreadObjectToolResourcesCodeInterpreter

Nome Digitare Descrizione Obbligatorio Predefinito
file_ids matrice di stringhe No

OpenAI.ThreadObjectToolResourcesFileSearch

Nome Digitare Descrizione Obbligatorio Predefinito
vector_store_ids matrice di stringhe No

OpenAI.TokenLimits

Nome Digitare Descrizione Obbligatorio Predefinito
post_instructions Intero Vincoli: min: 0 No

OpenAI.Tool

Strumento che può essere usato per generare una risposta.

Discriminare per OpenAI.Tool

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
code_interpreter OpenAI.CodeInterpreterTool
function OpenAI.FunctionTool
file_search OpenAI.FileSearchTool
computer_use_preview OpenAI.ComputerUsePreviewTool
web_search OpenAI.WebSearchTool
mcp OpenAI.MCPTool
image_generation OpenAI.ImageGenTool
local_shell OpenAI.LocalShellToolParam
shell OpenAI.FunctionShellToolParam
custom OpenAI.CustomToolParam
web_search_preview OpenAI.WebSearchPreviewTool
apply_patch OpenAI.ApplyPatchToolParam
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.ToolType

OpenAI.ToolChoiceAllowed

Vincola gli strumenti disponibili al modello a un set predefinito.

Nome Digitare Descrizione Obbligatorio Predefinito
Modalità Enum Vincola gli strumenti disponibili al modello a un set predefinito.
auto consente al modello di scegliere tra gli strumenti consentiti e generare un
Messaggio.
required richiede al modello di chiamare uno o più degli strumenti consentiti.
Valori possibili: auto, required
Strumenti matrice di oggetti Elenco di definizioni degli strumenti che il modello deve essere autorizzato a chiamare.
Per l'API Risposte, l'elenco delle definizioni degli strumenti potrebbe essere simile al seguente:
json<br> [<br> { "type": "function", "name": "get_weather" },<br> { "type": "mcp", "server_label": "deepwiki" },<br> { "type": "image_generation" }<br> ]<br>
digitare Enum Tipo di configurazione dello strumento consentito. Sempre allowed_tools.
Valori possibili: allowed_tools

OpenAI.ToolChoiceCodeInterpreter

Indica che il modello dovrebbe utilizzare uno strumento integrato per generare una risposta. Altre informazioni sugli strumenti predefiniti.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum
Valori possibili: code_interpreter

OpenAI.ToolChoiceComputerUsePreview

Indica che il modello dovrebbe utilizzare uno strumento integrato per generare una risposta. Altre informazioni sugli strumenti predefiniti.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum
Valori possibili: computer_use_preview

OpenAI.ToolChoiceCustom

Usare questa opzione per forzare il modello a chiamare uno strumento personalizzato specifico.

Nome Digitare Descrizione Obbligatorio Predefinito
Nome Stringa Nome dello strumento personalizzato da chiamare.
digitare Enum Per la chiamata a uno strumento personalizzato, il tipo è sempre custom.
Valori possibili: custom

OpenAI.ToolChoiceFileSearch

Indica che il modello dovrebbe utilizzare uno strumento integrato per generare una risposta. Altre informazioni sugli strumenti predefiniti.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum
Valori possibili: file_search

OpenAI.ToolChoiceFunction

Usa questa opzione per forzare il modello a chiamare una funzione specifica.

Nome Digitare Descrizione Obbligatorio Predefinito
Nome Stringa Il nome della funzione da chiamare.
digitare Enum Per la chiamata di funzioni, il tipo è sempre function.
Valori possibili: function

OpenAI.ToolChoiceImageGeneration

Indica che il modello dovrebbe utilizzare uno strumento integrato per generare una risposta. Altre informazioni sugli strumenti predefiniti.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum
Valori possibili: image_generation

OpenAI.ToolChoiceMCP

Usare questa opzione per forzare il modello a chiamare uno strumento specifico in un server MCP remoto.

Nome Digitare Descrizione Obbligatorio Predefinito
Nome stringa o null No
server_label Stringa Etichetta del server MCP da usare.
digitare Enum Per gli strumenti MCP, il tipo è sempre mcp.
Valori possibili: mcp

OpenAI.ToolChoiceOptions

Controlla quale (se presente) strumento viene chiamato dal modello. none significa che il modello non chiamerà nessuno strumento ma genera invece un messaggio. auto significa che il modello può scegliere tra generare un messaggio o chiamare uno o più strumenti. required significa che il modello deve chiamare uno o più strumenti.

Proprietà Valore
Digitare Stringa
Valori none
auto
required

OpenAI.ToolChoiceParam

Come il modello dovrebbe selezionare quale strumento (o strumenti) utilizzare per generare una risposta. Consulta il tools parametro per vedere come specificare quali strumenti il modello può chiamare.

Discriminante per OpenAI.ToolChoiceParam

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Valore del tipo Schema
allowed_tools OpenAI.ToolChoiceAllowed
mcp OpenAI.ToolChoiceMCP
custom OpenAI.ToolChoiceCustom
apply_patch OpenAI.SpecificApplyPatchParam
shell OpenAI.SpecificFunctionShellParam
file_search OpenAI.ToolChoiceFileSearch
web_search_preview OpenAI.ToolChoiceWebSearchPreview
computer_use_preview OpenAI.ToolChoiceComputerUsePreview
web_search_preview_2025_03_11 OpenAI.ToolChoiceWebSearchPreview20250311
image_generation OpenAI.ToolChoiceImageGeneration
code_interpreter OpenAI.ToolChoiceCodeInterpreter
Nome Digitare Descrizione Obbligatorio Predefinito
digitare OpenAI.ToolChoiceParamType

OpenAI.ToolChoiceParamType

Proprietà Valore
Digitare Stringa
Valori allowed_tools
function
mcp
custom
apply_patch
shell
file_search
web_search_preview
computer_use_preview
web_search_preview_2025_03_11
image_generation
code_interpreter

OpenAI.ToolChoiceWebSearchPreview

Nota: web_search non è ancora disponibile tramite Azure OpenAI.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum
Valori possibili: web_search_preview

OpenAI.ToolChoiceWebSearchPreview20250311

Indica che il modello dovrebbe utilizzare uno strumento integrato per generare una risposta. Altre informazioni sugli strumenti predefiniti.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum
Valori possibili: web_search_preview_2025_03_11

OpenAI.ToolType

Proprietà Valore
Digitare Stringa
Valori function
file_search
computer_use_preview
web_search
mcp
code_interpreter
image_generation
local_shell
shell
custom
web_search_preview
apply_patch

OpenAI.ToolsArray

Una serie di strumenti che il modello può chiamare mentre genera una risposta. Puoi specificare quale strumento usare impostando il tool_choice parametro. Sono supportate le categorie di strumenti seguenti:

  • Strumenti predefiniti: strumenti forniti da OpenAI che estendono le funzionalità del modello, ad esempio la ricerca Web o la ricerca di file. Altre informazioni sugli strumenti predefiniti.
  • Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni sugli strumenti MCP.
  • Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente, consentendo al modello di chiamare il proprio codice con argomenti e output fortemente tipizzato. Altre informazioni sulla chiamata alle funzioni. È anche possibile usare strumenti personalizzati per chiamare il proprio codice.

Matrice di: OpenAI.Tool

OpenAI.TopLogProb

Probabilità di log principale di un token.

Nome Digitare Descrizione Obbligatorio Predefinito
Byte matrice di numeri interi
logprob Numero
Token Stringa

OpenAI.TranscriptionSegment

Nome Digitare Descrizione Obbligatorio Predefinito
avg_logprob Numero Logprob medio del segmento. Se il valore è inferiore a -1, considerare che i logprobs non sono riusciti.
compression_ratio Numero Rapporto di compressione del segmento. Se il valore è maggiore di 2,4, prendere in considerazione l'errore di compressione.
Fine Numero Ora di fine del segmento in secondi.
Id Intero Identificatore univoco del segmento.
no_speech_prob Numero Probabilità di nessun parlato nel segmento. Se il valore è superiore a 1,0 e è inferiore a -1, prendere in considerazione questo segmento invisibile all'utente avg_logprob .
Cercare Intero Offset di ricerca del segmento.
Iniziare Numero Ora di inizio del segmento in secondi.
Temperatura Numero Parametro Temperature usato per generare il segmento.
Testo Stringa Contenuto di testo del segmento.
Token matrice di numeri interi Matrice di ID token per il contenuto di testo.

OpenAI.TranscriptionWord

Nome Digitare Descrizione Obbligatorio Predefinito
Fine Numero Ora di fine della parola in secondi.
Iniziare Numero Ora di inizio della parola in secondi.
Parola Stringa Contenuto di testo della parola.

OpenAI.TruncationObject

Controlli su come un thread verrà troncato prima dell'esecuzione. Usa questo per controllare la finestra contestuale iniziale della run.

Nome Digitare Descrizione Obbligatorio Predefinito
last_messages integer o null No
digitare Enum La strategia di troncamento da usare per il thread. Il valore predefinito è auto. Se impostato su last_messages, il thread verrà troncato ai n messaggi più recenti nel thread. Quando impostato su auto, i messaggi al centro del thread verranno eliminati per adattarsi alla lunghezza contestuale del modello, max_prompt_tokens.
Valori possibili: auto, last_messages

OpenAI.Type

Un'azione per scrivere un testo.

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Il testo da scrivere.
digitare Enum Specifica il tipo di evento. Per un'azione di tipo, questa proprietà è
sempre impostato su type.
Valori possibili: type

OpenAI.UpdateConversationBody

Nome Digitare Descrizione Obbligatorio Predefinito
Metadati OpenAI.Metadata o Null Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard.
I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri.

OpenAI.UpdateVectorStoreFileAttributesRequest

Nome Digitare Descrizione Obbligatorio Predefinito
Attributi OpenAI.VectorStoreFileAttributes o null

OpenAI.UpdateVectorStoreRequest

Nome Digitare Descrizione Obbligatorio Predefinito
expires_after OpenAI.VectorStoreExpirationAfter La politica di scadenza per uno store vettoriale. No
Metadati OpenAI.Metadata o Null No
Nome stringa o null Il nome del negozio vettoriale. No

OpenAI.UrlCitationBody

Una citazione per una risorsa web utilizzata per generare una risposta al modello.

Nome Digitare Descrizione Obbligatorio Predefinito
end_index Intero L'indice dell'ultimo carattere della citazione URL nel messaggio.
start_index Intero L'indice del primo carattere della citazione URL nel messaggio.
Titolo Stringa Il titolo della risorsa web.
digitare Enum Il tipo della citazione URL. Sempre url_citation.
Valori possibili: url_citation
Url Stringa L'URL della risorsa web.

OpenAI.ValidateGraderResponse

Nome Digitare Descrizione Obbligatorio Predefinito
Selezionatore OpenAI.GraderStringCheck o OpenAI.GraderTextSimilarity o OpenAI.GraderPython o OpenAI.GraderScoreModel o OpenAI.GraderMulti o GraderEndpoint Grader utilizzato per il processo di ottimizzazione. No

OpenAI.VectorStoreExpirationAfter

La politica di scadenza per uno store vettoriale.

Nome Digitare Descrizione Obbligatorio Predefinito
ancora Enum Time stamp dell'ancora dopo il quale si applica la politica di scadenza. Ancoraggi supportati: last_active_at.
Valori possibili: last_active_at
Giorni Intero Il numero di giorni dopo il tempo di ancoragga in cui lo store vettoriale scadrà.
Vincoli: min: 1, max: 365

OpenAI.VectorStoreFileAttributes

Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard. I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri, booleani o numeri.

Tipo: oggetto

OpenAI.VectorStoreFileBatchObject

Un lotto di file collegati a un archivio vettoriale.

Nome Digitare Descrizione Obbligatorio Predefinito
created_at Intero Il timestamp Unix (in pochi secondi) indicava quando i file vettoriali erano creati in lot.
file_counts OpenAI.VectorStoreFileBatchObjectFileCounts
Id Stringa L'identificatore, che può essere consultato negli endpoint API.
Oggetto Enum Il tipo di oggetto, che è sempre vector_store.file_batch.
Valori possibili: vector_store.files_batch
Stato Enum Lo stato dei file vettoriali memorizza in batch, che può essere o in_progress, completed, cancelled oppure failed.
Valori possibili: in_progress, completed, cancelled, failed
vector_store_id Stringa ID dell'archivio vettoriale a cui è associato il file .

OpenAI.VectorStoreFileBatchObjectFileCounts

Nome Digitare Descrizione Obbligatorio Predefinito
annullato Intero
Completato Intero
Fallito Intero
in_progress Intero
Totale Intero

OpenAI.VectorStoreFileObject

Una lista di file collegati a un archivio vettoriale.

Nome Digitare Descrizione Obbligatorio Predefinito
Attributi OpenAI.VectorStoreFileAttributes o null No
chunking_strategy OpenAI.ChunkingStrategyResponse Strategia usata per suddividere il file. No
created_at Intero Il timestamp Unix (in pochi secondi) indicato quando il file di archivio vettoriale è stato creato.
Id Stringa L'identificatore, che può essere consultato negli endpoint API.
last_error OpenAI.VectorStoreFileObjectLastError o null
Oggetto Enum Il tipo di oggetto, che è sempre vector_store.file.
Valori possibili: vector_store.file
Stato Enum Lo stato del file vettoriale store, che può essere o in_progress, completed, cancelled, o failed. Lo stato completed indica che il file di archiviazione vettoriale è pronto per l'uso.
Valori possibili: in_progress, completed, cancelled, failed
usage_bytes Intero L'utilizzo totale della memorizzazione vettoriale in byte. Nota che questo potrebbe essere diverso dalla dimensione originale del file.
vector_store_id Stringa ID dell'archivio vettoriale a cui è associato il file .

OpenAI.VectorStoreFileObjectLastError

Nome Digitare Descrizione Obbligatorio Predefinito
Codice Enum
Valori possibili: server_error, unsupported_file, invalid_file
Messaggio Stringa

OpenAI.VectorStoreObject

Un vettoriale storage è una raccolta di file elaborati che possono essere utilizzati dallo file_search strumento.

Nome Digitare Descrizione Obbligatorio Predefinito
created_at Intero Il timestamp Unix (in secondi) indicato quando è stato creato il vettoriale store.
expires_after OpenAI.VectorStoreExpirationAfter La politica di scadenza per uno store vettoriale. No
expires_at stringa o null No
file_counts OpenAI.VectorStoreObjectFileCounts
Id Stringa L'identificatore, che può essere consultato negli endpoint API.
last_active_at stringa o null
Metadati OpenAI.Metadata o Null
Nome Stringa Il nome del negozio vettoriale.
Oggetto Enum Il tipo di oggetto, che è sempre vector_store.
Valori possibili: vector_store
Stato Enum Lo stato dello store vettoriale, che può essere o expired, in_progress, oppure completed. Lo stato di completed indica che lo store vettoriale è pronto all'uso.
Valori possibili: expired, in_progress, completed
usage_bytes Intero Il numero totale di byte utilizzati dai file nello store vettoriale.

OpenAI.VectorStoreObjectFileCounts

Nome Digitare Descrizione Obbligatorio Predefinito
annullato Intero
Completato Intero
Fallito Intero
in_progress Intero
Totale Intero

OpenAI.VectorStoreSearchRequest

Nome Digitare Descrizione Obbligatorio Predefinito
Filtri OpenAI.ComparisonFilter o OpenAI.CompoundFilter Un filtro da applicare in base agli attributi del file. No
max_num_results Intero Il numero massimo di risultati da restituire. Questo numero dovrebbe essere compreso tra 1 e 50 inclusi.
Vincoli: min: 1, max: 50
No 10
Query stringa o matrice di stringhe Una stringa di query per una ricerca
ranking_options OpenAI.VectorStoreSearchRequestRankingOptions No
└* ranker Enum
Valori possibili: none, auto, default-2024-11-15
No
└score_threshold Numero Vincoli: min: 0, max: 1 No
rewrite_query Boolean Se riscrivere la query in linguaggio naturale per la ricerca vettoriale. No

OpenAI.VectorStoreSearchRequestRankingOptions

Nome Digitare Descrizione Obbligatorio Predefinito
ranker Enum
Valori possibili: none, auto, default-2024-11-15
No
score_threshold Numero Vincoli: min: 0, max: 1 No

OpenAI.VectorStoreSearchResultContentObject

Nome Digitare Descrizione Obbligatorio Predefinito
Testo Stringa Il contenuto del testo è tornato dalla ricerca.
digitare Enum Il tipo di contenuti.
Valori possibili: text

OpenAI.VectorStoreSearchResultItem

Nome Digitare Descrizione Obbligatorio Predefinito
Attributi OpenAI.VectorStoreFileAttributes o null
Contenuto matrice di OpenAI.VectorStoreSearchResultContentObject Blocchi di contenuto dal file.
File_id Stringa L'ID del file di archivio vettoriale.
Filename Stringa Il nome del file vettoriale store.
Punteggio Numero Il punteggio di somiglianza per il risultato.
Vincoli: min: 0, max: 1

OpenAI.VectorStoreSearchResultsPage

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di OpenAI.VectorStoreSearchResultItem L'elenco degli elementi dei risultati di ricerca.
has_more Boolean Indica se ci sono altri risultati da recuperare.
next_page stringa o null
Oggetto Enum Il tipo oggetto, che è sempre vector_store.search_results.page
Valori possibili: vector_store.search_results.page
search_query matrice di stringhe

OpenAI.Verbosity

Vincola il livello di dettaglio della risposta del modello. I valori inferiori generano risposte più concise, mentre i valori più elevati generano risposte più dettagliate. I valori attualmente supportati sono low, medium, e high.

Proprietà Valore
Digitare Stringa
Valori low
medium
high

OpenAI.VoiceIdsShared

Proprietà Valore
Digitare Stringa
Valori alloy
ash
ballad
coral
echo
sage
shimmer
verse
marin
cedar

OpenAI.Wait

Un'azione di attesa.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Specifica il tipo di evento. Per un'azione di attesa, questa proprietà è
sempre impostato su wait.
Valori possibili: wait

OpenAI.WebSearchActionFind

Tipo di azione "find": cerca un criterio all'interno di una pagina caricata.

Nome Digitare Descrizione Obbligatorio Predefinito
Modello Stringa Modello o testo da cercare all'interno della pagina.
digitare Enum Tipo di azione.
Valori possibili: find_in_page
Url Stringa URL della pagina in cui è stato cercato il modello.

OpenAI.WebSearchActionOpenPage

Tipo di azione "open_page" - Apre un URL specifico dai risultati della ricerca.

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum Tipo di azione.
Valori possibili: open_page
Url Stringa URL aperto dal modello.

OpenAI.WebSearchActionSearch

Tipo di azione "search" - Esegue una query di ricerca Web.

Nome Digitare Descrizione Obbligatorio Predefinito
Query matrice di stringhe Query di ricerca. No
Query stringa (deprecata) [DEPRECATO] Query di ricerca.
Fonti matrice di OpenAI.WebSearchActionSearchSources Origini utilizzate nella ricerca. No
digitare Enum Tipo di azione.
Valori possibili: search

OpenAI.WebSearchActionSearchSources

Nome Digitare Descrizione Obbligatorio Predefinito
digitare Enum
Valori possibili: url
Url Stringa

OpenAI.WebSearchApproximateLocation

Posizione approssimativa dell'utente.

Nome Digitare Descrizione Obbligatorio Predefinito
Città stringa o null No
Paese stringa o null No
Regione stringa o null No
Fuso orario stringa o null No
digitare Enum Tipo di approssimazione della posizione. Sempre approximate.
Valori possibili: approximate
No

OpenAI.WebSearchPreviewTool

Nota: web_search non è ancora disponibile tramite Azure OpenAI.

Nome Digitare Descrizione Obbligatorio Predefinito
search_context_size OpenAI.SearchContextSize No
digitare Enum Tipo dello strumento di ricerca Web. Uno di web_search_preview oppure web_search_preview_2025_03_11.
Valori possibili: web_search_preview
user_location OpenAI.ApproximateLocation o null No

OpenAI.WebSearchTool

Nota: web_search non è ancora disponibile tramite Azure OpenAI.

Nome Digitare Descrizione Obbligatorio Predefinito
Filtri OpenAI.WebSearchToolFilters o null No
search_context_size Enum Linee guida generali per la quantità di spazio della finestra di contesto da usare per la ricerca. Uno di low, medium, oppure high. medium è la norma predefinita.
Valori possibili: low, medium, high
No
digitare Enum Tipo dello strumento di ricerca Web. Uno di web_search oppure web_search_2025_08_26.
Valori possibili: web_search
user_location OpenAI.WebSearchApproximateLocation o null No

OpenAI.WebSearchToolFilters

Nome Digitare Descrizione Obbligatorio Predefinito
allowed_domains matrice di stringhe o null No

Ordine

Proprietà Valore
Digitare Stringa
Valori asc
desc

ResponseFormatJSONSchemaRequest

Nome Digitare Descrizione Obbligatorio Predefinito
json_schema Oggetto Schema JSON per il formato di risposta
digitare Enum Tipo di formato di risposta
Valori possibili: json_schema

SpeechGenerationResponse

Rappresentazione di una risposta per un'operazione di sintesi vocale.

Nome Digitare Descrizione Obbligatorio Predefinito
Audio Stringa Audio generato, generato nel formato di output audio richiesto.

SpeechGenerationResponseFormat

Formati di output audio supportati per la sintesi vocale.

Questo componente può essere uno dei seguenti:

  • Stringa
  • string: mp3, opus, aac, flac, wavpcm

SpeechVoice

Voci disponibili per la sintesi vocale.

Proprietà Valore
Descrizione Voci disponibili per la sintesi vocale.
Digitare Stringa
Valori alloy
echo
fable
onyx
nova
shimmer

VideoContent

Nome Digitare Descrizione Obbligatorio Predefinito
Contenuto Stringa

VideoContentVariant

Varianti di asset selezionabili per il contenuto scaricato.

Proprietà Valore
Descrizione Varianti di asset selezionabili per il contenuto scaricato.
Digitare Stringa
Valori video
thumbnail
spritesheet

VideoIdParameter

Nome Digitare Descrizione Obbligatorio Predefinito
video-id Stringa ID del video da usare per la richiesta OpenAI di Azure.

VideoList

Elenco dei processi di generazione di video.

Nome Digitare Descrizione Obbligatorio Predefinito
Dati matrice di VideoResource Elenco dei processi di generazione di video.
first_id Stringa ID del primo video nella pagina corrente, se disponibile. No
has_more Boolean Flag che indica se sono disponibili più processi dopo l'elenco.
last_id Stringa ID dell'ultimo video nella pagina corrente, se disponibile. No
Oggetto Enum
Valori possibili: list

VideoResource

Informazioni strutturate che descrivono un processo video generato.

Nome Digitare Descrizione Obbligatorio Predefinito
completed_at Intero Timestamp Unix (secondi) per il completamento del processo, se completato. No
created_at Intero Timestamp Unix (secondi) per il momento in cui è stato creato il processo.
Errore Errore No
Codice └++ Stringa
└* messaggio Stringa
expires_at Intero Timestamp Unix (secondi) per la scadenza della generazione di video (e verrà eliminato). No
Id Stringa Identificatore univoco per il processo video.
Modello Stringa Distribuzione del modello di generazione video che ha prodotto il processo.
Oggetto Stringa Il tipo di oggetto, che è sempre video.
Progresso Intero Percentuale di completamento approssimativa per l'attività di generazione.
remixed_from_video_id Stringa Identificatore del video di origine se questo video è un remix. No
Secondi VideoSecondi Durate di clip supportate, misurate in secondi.
Dimensione VideoSize Dimensioni di output formattate come {width}x{height}.
Stato VideoStatus Stato del ciclo di vita di un video generato.

VideoSecondi

Durate di clip supportate, misurate in secondi.

Proprietà Valore
Descrizione Durate di clip supportate, misurate in secondi.
Digitare Stringa
Valori 4
8
12

VideoSize

Dimensioni di output formattate come {width}x{height}.

Proprietà Valore
Descrizione Dimensioni di output formattate come {width}x{height}.
Digitare Stringa
Valori 720x1280
1280x720
1024x1792
1792x1024

VideoStatus

Stato del ciclo di vita di un video generato.

Proprietà Valore
Descrizione Stato del ciclo di vita di un video generato.
Digitare Stringa
Valori queued
in_progress
completed
failed