Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Versione API: v1
Variabili del server:
| Variabile | Predefinito | Descrizione |
|---|---|---|
| Endpoint | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
Autenticazione
Chiave API
Passare una chiave API con l'intestazione api-key .
Token di autenticazione
Passare un token di autenticazione con l'intestazione authorization .
Oauth2authoauth20
Flusso: implicito
URL autorizzazione:https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambiti:
https://ai.azure.com/.default
Lotto
Creare un batch
POST {endpoint}/openai/v1/batches
Crea ed esegue un batch da un file caricato di richieste
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
Intestazione richiesta
| Nome | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|
| Accettare | Vero | Stringa Valori possibili: application/json |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| completion_window | Enum | Il tempo entro cui il lotto deve essere elaborato. Attualmente è supportato solo 24h .Valori possibili: 24h |
Sì | |
| Endpoint | Enum | Endpoint da usare per tutte le richieste nel batch. Attualmente /v1/chat/completions è supportato.Valori possibili: /v1/chat/completions, /v1/embeddings |
Sì | |
| input_file_id | Stringa | ID di un file caricato che contiene le richieste per il nuovo batch. Il file di input deve essere formattato come file JSON. e devono essere caricati con lo scopo batch. |
No |
Risposte
Codice di stato: 201
Descrizione: la richiesta ha avuto esito positivo e una nuova risorsa è stata creata di conseguenza.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Elencare i batch
GET {endpoint}/openai/v1/batches
Elencare i batch dell'organizzazione.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| Dopo | Query | No | Stringa | Un cursore per l'uso nella paginazione.
after è un ID oggetto che definisce il tuo posto nella lista.Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco. |
| Limite | Query | No | Intero | Un limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20. |
Intestazione richiesta
| Nome | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|
| Accettare | Vero | Stringa Valori possibili: application/json |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ListBatchesResponse |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Recuperare batch
GET {endpoint}/openai/v1/batches/{batch_id}
Recupera un batch.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| batch_id | Percorso | Sì | Stringa | ID del batch da recuperare. |
Intestazione richiesta
| Nome | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|
| Accettare | Vero | Stringa Valori possibili: application/json |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Annullare il batch
POST {endpoint}/openai/v1/batches/{batch_id}/cancel
Annulla un batch in corso.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| batch_id | Percorso | Sì | Stringa | ID del batch da annullare. |
Intestazione richiesta
| Nome | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|
| Accettare | Vero | Stringa Valori possibili: application/json |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Chat
Creare il completamento della chat
POST {endpoint}/openai/v1/chat/completions
Crea un completamento della chat.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Audio | OpenAI.CreateChatCompletionRequestAudio o null | Parametri per l'uscita audio. Obbligatorio quando viene richiesto l'output audio conmodalities: ["audio"]. |
No | |
| frequency_penalty | number o null | Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base a la frequenza esistente nel testo fino a questo momento, riducendo il modello probabilità di ripetere la stessa riga verbatim. |
No | |
| function_call | string o OpenAI.ChatCompletionFunctionCallOption | Deprecato a favore di tool_choice.Controlla quale funzione (se ce n'è) chiamata dal modello. none indica che il modello non chiamerà una funzione e genera invece unMessaggio. auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di unFunzione. Specifica di una funzione specifica tramite {"name": "my_function"} forzamodello per chiamare tale funzione. none è il valore predefinito quando non sono presenti funzioni.
auto è il valore predefinitose sono presenti funzioni. |
No | |
| Funzioni | matrice di OpenAI.ChatCompletionFunctions | Deprecato a favore di tools.Un elenco delle funzioni per cui il modello può generare input JSON. |
No | |
| logit_bias | oggetto o null | Modifica la probabilità che i token specificati compaiano nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificato dall'ID del token in tokenizer) a un valore di distorsione associato da -100 a 100. Matematicamente la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia in base al modello, ma i valori tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; valori come -100 o 100 deve comportare un divieto o una selezione esclusiva del token pertinente. |
No | |
| logprobs | booleano o null | Se restituire o meno logaritamiche probabilità dei token di output. Se true, restituisce le probabilità di log di ogni token di output restituito in content di message. |
No | |
| max_completion_tokens | integer o null | Limite superiore per il numero di token che possono essere generati per un oggetto completamento, inclusi token di output visibili e token di ragionamento. |
No | |
| max_tokens | integer o null | Il numero massimo di token che possono essere generati nel completamento della chat. Questo valore può essere usato per controllare i costi per il testo generato tramite API. Questo valore è ora deprecato a favore di max_completion_tokense ènon compatibile con i modelli serie o1. |
No | |
| Messaggi | matrice di OpenAI.ChatCompletionRequestMessage | Un elenco dei messaggi che compongono la conversazione finora. A seconda del modello usato, tipi di messaggio diversi (modalità) supportati, come testo, immagini e audio. |
Sì | |
| Metadati | OpenAI.Metadata o Null | No | ||
| Modalità | OpenAI.ResponseModalities | Tipi di output che vorresti che il modello generasse. La maggior parte dei modelli è in grado di generare testo, che è il valore predefinito: ["text"]Il gpt-4o-audio-preview modello può essere usato anche pergenerare audio. Per richiedere che questo modello generi sia di testo che di risposte audio, è possibile usare: ["text", "audio"] |
No | |
| Modello | Stringa | ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAIoffre un'ampia gamma di modelli con diverse funzionalità, prestazioni caratteristiche e punti di prezzo. Fare riferimento alla guida al modello per esplorare e confrontare i modelli disponibili. |
Sì | |
| N | integer o null | Quante opzioni di completamento della chat generare per ogni messaggio di input. Nota che ti verrà addebitato in base al numero di gettoni generati in tutte le scelte. Tieni n in modo 1 di minimizzare i costi. |
No | |
| parallel_tool_calls | OpenAI.ParallelToolCalls | Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. | No | |
| Previsione | OpenAI.PredictionContent | Contenuto di output stimato statico, ad esempio il contenuto di un file di testo rigenerato. |
No | |
| └> contenuto | stringa o matrice di OpenAI.ChatCompletionRequestMessageContentPartText | Il contenuto che dovrebbe essere abbinato quando si genera una risposta al modello. Se i token generati corrispondono a questo contenuto, l'intera risposta del modello può essere restituito molto più rapidamente. |
Sì | |
| Tipo └* | Enum | Il tipo di contenuto previsto che vuoi fornire. Questo tipo è attualmente sempre content.Valori possibili: content |
Sì | |
| presence_penalty | number o null | Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base a se appaiono nel testo fino a questo momento, aumentando la probabilità del modello per parlare di nuovi argomenti. |
No | |
| prompt_cache_key | Stringa | Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo.
Altre informazioni. |
No | |
| prompt_cache_retention | stringa o null | No | ||
| reasoning_effort | OpenAI.ReasoningEffort | Vincola lo sforzo sul ragionamento per ragionamento dei modelli. I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurrel'impegno di ragionamento può comportare risposte più veloci e meno token usati sul ragionamento in una risposta. - gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max. |
No | |
| response_format | OpenAI.CreateChatCompletionRequestResponseFormat | Un oggetto che specifica il formato che il modello deve generare. Impostazione di per abilitare { "type": "json_schema", "json_schema": {...} }Output strutturati che assicurano che il modello corrisponda al codice JSON fornito Schema. Altre informazioni negli output strutturati guida. L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, chegarantisce che il messaggio generato dal modello sia JSON valido. Utilizzando json_schemaè preferibile per i modelli che lo supportano. |
No | |
| Tipo └* | OpenAI.CreateChatCompletionRequestResponseFormatType | Sì | ||
| safety_identifier | Stringa | Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI. Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni. |
No | |
| Seme | integer o null | Questa funzione è in fase Beta. Se specificato, il nostro sistema farà il miglior sforzo per campionare deterministicamente, in modo che le richieste ripetute con gli stessi seed parametri e restituiscano lo stesso risultato.Il determinismo non è garantito ed è necessario fare riferimento al system_fingerprint parametro di risposta per monitorare le modifiche nel back-end. |
No | |
| Fermare | OpenAI.StopConfiguration | Non supportato con i modelli o3 di ragionamento più recenti e o4-mini.Fino a quattro sequenze in cui l'API smetterà di generare ulteriori token. Le il testo restituito non conterrà la sequenza di interruzione. |
No | |
| Negozio | booleano o null | Indica se archiviare o meno l'output della richiesta di completamento della chat per utilizzare nei prodotti di modellazione o di valutazione. |
No | |
| Flusso | booleano o null | Se impostato su true, i dati di risposta del modello verranno trasmessi al client generato tramite eventi inviati dal server. |
No | |
| stream_options | OpenAI.ChatCompletionStreamOptions o null | No | ||
| Temperatura | number o null | No | ||
| tool_choice | OpenAI.ChatCompletionToolChoiceOption | Controlla quale (se presente) strumento viene chiamato dal modello.none significa che il modello non chiamerà nessuno strumento ma genera invece un messaggio.auto significa che il modello può scegliere tra generare un messaggio o chiamare uno o più strumenti.required significa che il modello deve chiamare uno o più strumenti.Specificare uno strumento particolare tramite {"type": "function", "function": {"name": "my_function"}} costringe il modello a chiamare quello strumento.none è il valore predefinito quando non ci sono strumenti presenti.
auto è la norma se sono presenti strumenti. |
No | |
| Strumenti | matrice di OpenAI.ChatCompletionTool o OpenAI.CustomToolChatCompletions | Un elenco degli strumenti che il modello può chiamare. È possibile fornire uno dei due strumenti personalizzati o strumenti per le funzioni. |
No | |
| top_logprobs | integer o null | No | ||
| top_p | number o null | No | ||
| Utente | stringa (deprecata) | Identificatore univoco che rappresenta l'utente finale, che può essere utile monitorare e rilevare abusi. |
No | |
| user_security_context | AzureUserSecurityContext | Il contesto di sicurezza utente contiene diversi parametri che descrivono l'applicazione stessa e l'utente finale che interagisce con l'applicazione. Questi settori aiutano i team delle operazioni di sicurezza a indagare e mitigare gli incidenti di sicurezza fornendo un approccio completo alla protezione delle applicazioni IA. Altre informazioni sulla protezione delle applicazioni di intelligenza artificiale con Microsoft Defender per il cloud. | No | |
| Dettaglio | OpenAI.Verbosity | Vincola il livello di dettaglio della risposta del modello. I valori inferiori genereranno risposte più concise, mentre valori più elevati generano risposte più dettagliate. I valori attualmente supportati sono low, medium, e high. |
No |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | oggetto o oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Esempi
Esempio
POST {endpoint}/openai/v1/chat/completions
Completamenti
Creare il completamento
POST {endpoint}/openai/v1/completions
Crea un completamento.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| best_of | integer o null | Genera best_of completamenti lato server e restituisce il "migliore" (quello con la probabilità logaritaria più alta per token). I risultati non possono essere trasmessi.Se usato con n, best_of controlla il numero di completamenti candidati e n specifica il numero di risultati da restituire: best_of deve essere maggiore di n.Nota:* Poiché questo parametro genera molti completamenti, può utilizzare rapidamente la quota del token. Usa con attenzione e assicurati di avere impostazioni ragionevoli per max_tokens e stop. |
No | |
| Eco | booleano o null | Ripeti il prompt oltre al completamento | No | |
| frequency_penalty | number o null | Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo finora, riducendo la probabilità che il modello ripeta la stessa frase parola per parola. Per altre informazioni sulle sanzioni relative alla frequenza e alla presenza, vedere. |
No | |
| logit_bias | oggetto o null | Modifica la probabilità che i token specificati compaiano nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer GPT) a un valore di distorsione associato da -100 a 100. Matematicamente, il bias viene aggiunto ai logit generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. Ad esempio, puoi passare {"50256": -100} per impedire che il <token |endoftext> | venga generato. |
No | |
| logprobs | integer o null | Includi le probabilità logarime sui logprobs token di output più probabili, così come sui token scelti. Ad esempio, se logprobs è 5, l'API restituirà un elenco dei cinque token più probabili. L'API restituirà sempre il logprob del token campionato, quindi potrebbero esserci fino a un logprobs+1 massimo di elementi nella risposta.Il valore massimo per logprobs è 5. |
No | |
| max_tokens | integer o null | Il numero massimo di token che può essere generato nel completamento. Il numero di token del prompt più max_tokens non può superare la lunghezza del contesto del modello.
Codice Python di esempio per il conteggio dei token. |
No | |
| Modello | Stringa | ID del modello da utilizzare. È possibile usare l'API List models (Elenco modelli ) per visualizzare tutti i modelli disponibili o vedere la panoramica del modello per le descrizioni. | Sì | |
| N | integer o null | Quante completazioni generare per ogni prompt. Nota:* Poiché questo parametro genera molti completamenti, può utilizzare rapidamente la quota del token. Usa con attenzione e assicurati di avere impostazioni ragionevoli per max_tokens e stop. |
No | |
| presence_penalty | number o null | Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla loro presenza nel testo fino a quel momento, aumentando la probabilità che il modello tratti di nuovi argomenti. Per altre informazioni sulle sanzioni relative alla frequenza e alla presenza, vedere. |
No | |
| prompt | stringa o matrice di stringhe o null | No | ||
| Seme | integer o null | Se specificato, il nostro sistema farà il miglior sforzo per campionare deterministicamente, in modo che le richieste ripetute con gli stessi seed parametri e restituiscano lo stesso risultato.Il determinismo non è garantito ed è necessario fare riferimento al system_fingerprint parametro di risposta per monitorare le modifiche nel back-end. |
No | |
| Fermare | OpenAI.StopConfiguration | Non supportato con i modelli o3 di ragionamento più recenti e o4-mini.Fino a quattro sequenze in cui l'API smetterà di generare ulteriori token. Le il testo restituito non conterrà la sequenza di interruzione. |
No | |
| Flusso | booleano o null | Se riportare indietro un progresso parziale. Se impostato, i token verranno inviati come eventi solo dati inviati dal server man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio.
Codice Python di esempio. |
No | |
| stream_options | OpenAI.ChatCompletionStreamOptions o null | No | ||
| Suffisso | stringa o null | Il suffisso che arriva dopo il completamento del testo inserito. Questo parametro è supportato solo per gpt-3.5-turbo-instruct. |
No | |
| Temperatura | number o null | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Generalmente consigliamo di modificare questo o top_p , ma non entrambi. |
No | |
| top_p | number o null | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. Generalmente consigliamo di modificare questo o temperature , ma non entrambi. |
No | |
| Utente | Stringa | Altre informazioni. | No |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Esempi
Esempio
POST {endpoint}/openai/v1/completions
Contenitori
Elencare i contenitori
GET {endpoint}/openai/v1/containers
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| Limite | Query | No | Intero | Un limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20. |
| Ordine | Query | No | Stringa Valori possibili: asc, desc |
Ordina in base al created_at timestamp degli oggetti.
asc per l'ordine crescente edescper ordine decrescente. |
| Dopo | Query | No | Stringa | Un cursore per l'uso nella paginazione.
after è un ID oggetto che definisce il tuo posto nella lista.Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco. |
| Prima | Query | No | Stringa | Un cursore per l'uso nella paginazione.
before è un ID oggetto che definisce il tuo posto nella lista.Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ContainerListResource |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Creare un contenitore
POST {endpoint}/openai/v1/containers
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| expires_after | OpenAI.CreateContainerBodyExpiresAfter | No | ||
| Ancoraggio └* | Enum | Valori possibili: last_active_at |
Sì | |
| └* minuti | Intero | Sì | ||
| file_ids | matrice di stringhe | ID di file da copiare nel contenitore. | No | |
| memory_limit | Enum | Limite di memoria facoltativo per il contenitore. Di default è 1g.Valori possibili: 1g, 4g, 16g, 64g |
No | |
| Nome | Stringa | Nome del contenitore da creare. | Sì |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ContainerResource |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Recuperare un contenitore
GET {endpoint}/openai/v1/containers/{container_id}
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| container_id | Percorso | Sì | Stringa | ID del contenitore da recuperare. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ContainerResource |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Eliminare un contenitore
DELETE {endpoint}/openai/v1/containers/{container_id}
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| container_id | Percorso | Sì | Stringa | ID del contenitore da eliminare. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Elencare i file del contenitore
GET {endpoint}/openai/v1/containers/{container_id}/files
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| container_id | Percorso | Sì | Stringa | ID del contenitore da cui elencare i file. |
| Limite | Query | No | Intero | Un limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20. |
| Ordine | Query | No | Stringa Valori possibili: asc, desc |
Ordina in base al created_at timestamp degli oggetti.
asc per l'ordine crescente edescper ordine decrescente. |
| Dopo | Query | No | Stringa | Un cursore per l'uso nella paginazione.
after è un ID oggetto che definisce il tuo posto nella lista.Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco. |
| Prima | Query | No | Stringa | Un cursore per l'uso nella paginazione.
before è un ID oggetto che definisce il tuo posto nella lista.Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ContainerFileListResource |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Creare un file contenitore
POST {endpoint}/openai/v1/containers/{container_id}/files
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| container_id | Percorso | Sì | Stringa | ID del contenitore in cui creare un file. |
Corpo della richiesta
Tipo di contenuto: multipart/form-data
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| File | Oggetto File (non nome file) da caricare. | No | ||
| File_id | Stringa | Nome del file da creare. | No |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ContainerFileResource |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Recuperare il file del contenitore
GET {endpoint}/openai/v1/containers/{container_id}/files/{file_id}
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| container_id | Percorso | Sì | Stringa | ID del contenitore. |
| File_id | Percorso | Sì | Stringa | ID del file da recuperare. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ContainerFileResource |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Eliminare il file del contenitore
DELETE {endpoint}/openai/v1/containers/{container_id}/files/{file_id}
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| container_id | Percorso | Sì | Stringa | ID del contenitore. |
| File_id | Percorso | Sì | Stringa | L'ID del file da eliminare. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Recuperare il contenuto del file del contenitore
GET {endpoint}/openai/v1/containers/{container_id}/files/{file_id}/content
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| container_id | Percorso | Sì | Stringa | ID del contenitore. |
| File_id | Percorso | Sì | Stringa | ID del file da cui recuperare il contenuto. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/octet-stream | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Conversazioni
Creare una conversazione
POST {endpoint}/openai/v1/conversations
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Elementi | matrice di OpenAI.InputItem o null | No | ||
| Metadati | OpenAI.Metadata o Null | No |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ConversationResource |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Recuperare la conversazione
GET {endpoint}/openai/v1/conversations/{conversation_id}
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| conversation_id | Percorso | Sì | Stringa | ID della conversazione da recuperare. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ConversationResource |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Aggiornare la conversazione
POST {endpoint}/openai/v1/conversations/{conversation_id}
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| conversation_id | Percorso | Sì | Stringa | ID della conversazione da aggiornare. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Metadati | OpenAI.Metadata o Null | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard. I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri. |
Sì |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ConversationResource |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Elimina conversazione
DELETE {endpoint}/openai/v1/conversations/{conversation_id}
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| conversation_id | Percorso | Sì | Stringa | ID della conversazione da eliminare. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.DeletedConversationResource |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Elencare gli elementi della conversazione
GET {endpoint}/openai/v1/conversations/{conversation_id}/items
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| conversation_id | Percorso | Sì | Stringa | ID della conversazione per cui elencare gli elementi. |
| Limite | Query | No | Intero | Un limite al numero di oggetti da restituire. Il limite può variare da 1 a 100, e il valore predefinito è 20. |
| Ordine | Query | No | Stringa Valori possibili: asc, desc |
L'ordine per restituire gli elementi di input. Il valore predefinito è desc. |
| Dopo | Query | No | Stringa | Un ID elemento per elencare gli elementi dopo, usato nella paginazione. |
| Includono | Query | No | Matrice | Specificare dati di output aggiuntivi da includere nella risposta del modello. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ConversationItemList |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Creare elementi di conversazione
POST {endpoint}/openai/v1/conversations/{conversation_id}/items
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| conversation_id | Percorso | Sì | Stringa | ID della conversazione a cui aggiungere l'elemento. |
| Includono | Query | No | Matrice | Campi aggiuntivi da includere nella risposta. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Elementi | matrice di OpenAI.InputItem | Sì |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ConversationItemList |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Recuperare l'elemento della conversazione
GET {endpoint}/openai/v1/conversations/{conversation_id}/items/{item_id}
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| conversation_id | Percorso | Sì | Stringa | ID della conversazione che contiene l'elemento. |
| item_id | Percorso | Sì | Stringa | ID dell'elemento da recuperare. |
| Includono | Query | No | Matrice | Campi aggiuntivi da includere nella risposta. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ConversationItem |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Eliminare l'elemento della conversazione
DELETE {endpoint}/openai/v1/conversations/{conversation_id}/items/{item_id}
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| conversation_id | Percorso | Sì | Stringa | ID della conversazione che contiene l'elemento. |
| item_id | Percorso | Sì | Stringa | ID dell'elemento da eliminare. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ConversationResource |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Evals
Elenco valutazioni
GET {endpoint}/openai/v1/evals
Elenca le valutazioni di un progetto.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| Dopo | Query | No | Stringa | Identificatore per l'ultima valutazione della precedente richiesta di paginazione. |
| Limite | Query | No | Intero | Limite al numero di valori da restituire in una singola risposta impaginazione. |
| Ordine | Query | No | Stringa Valori possibili: asc, desc |
Ordina le valutazioni per timestamp. Usare asc per l'ordine crescente odesc per ordine decrescente. |
| order_by | Query | No | Stringa Valori possibili: created_at, updated_at |
Le valutazioni possono essere ordinate per tempo di creazione o per ultimo aggiornamento. Utilizzarecreated_at per l'ora di creazione o updated_at per l'ultimo aggiornamentoTempo. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.EvalList |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Creare eval
POST {endpoint}/openai/v1/evals
Crea la struttura di una valutazione che possa essere utilizzata per testare le prestazioni di un modello.
Una valutazione è un insieme di criteri di test e una fonte dati. Dopo aver creato una valutazione, puoi eseguirla su diversi modelli e parametri del modello. Supportiamo diversi tipi di valutatori e fonti di dati.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| data_source_config | OpenAI.CreateEvalCustomDataSourceConfig o OpenAI.CreateEvalLogsDataSourceConfig o OpenAI.CreateEvalStoredCompletionsDataSourceConfig | Configurazione per l'origine dati utilizzata per le esecuzioni di valutazione. Determina lo schema dei dati usati nella valutazione. | Sì | |
| Metadati | OpenAI.Metadata o Null | No | ||
| Nome | Stringa | Il nome della valutazione. | No | |
| Statuscode | Enum | Valori possibili: 201 |
Sì | |
| testing_criteria | matrice di OpenAI.CreateEvalLabelModelGrader o OpenAI.EvalGraderStringCheck o OpenAI.EvalGraderTextSimilarity o OpenAI.EvalGraderPython o OpenAI.EvalGraderScoreModel o EvalGraderEndpoint | Un elenco dei valutatori per tutte le esecuzioni di valutazione in questo gruppo. I classificatori possono fare riferimento a variabili nell'origine dati usando la notazione con parentesi graffe doppie, ad esempio {{item.variable_name}}. Per fare riferimento all'output del modello, usare lo sample spazio dei nomi (ad esempio, {{sample.output_text}}). |
Sì |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.Eval |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Ottenere l'eval
GET {endpoint}/openai/v1/evals/{eval_id}
Recuperare una valutazione in base al relativo ID. Recupera una valutazione in base al relativo ID.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| eval_id | Percorso | Sì | Stringa |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.Eval |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Aggiornare eval
POST {endpoint}/openai/v1/evals/{eval_id}
Aggiornare le proprietà select, modificabili di una valutazione specificata.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| eval_id | Percorso | Sì | Stringa |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Metadati | OpenAI.Metadata | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Può trattarsi di utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato formattare ed eseguire query per gli oggetti tramite l'API o il dashboard. I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri. |
No | |
| Nome | Stringa | No |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.Eval |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Elimina eval
DELETE {endpoint}/openai/v1/evals/{eval_id}
Eliminare una valutazione specificata.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| eval_id | Percorso | Sì | Stringa |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Ottenere le esecuzioni di eval
GET {endpoint}/openai/v1/evals/{eval_id}/runs
Recuperare un elenco di esecuzioni per una valutazione specificata.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| eval_id | Percorso | Sì | Stringa | |
| Dopo | Query | No | Stringa | |
| Limite | Query | No | Intero | |
| Ordine | Query | No | Stringa Valori possibili: asc, desc |
|
| Stato | Query | No | Stringa Valori possibili: queued, in_progress, completed, canceled, failed |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.EvalRunList |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Creare l'esecuzione di eval
POST {endpoint}/openai/v1/evals/{eval_id}/runs
Creare una nuova esecuzione di valutazione, iniziando il processo di valutazione.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| eval_id | Percorso | Sì | Stringa |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| data_source | OpenAI.CreateEvalJsonlRunDataSource o OpenAI.CreateEvalCompletionsRunDataSource o OpenAI.CreateEvalResponsesRunDataSource | Dettagli sull'origine dati dell'esecuzione. | Sì | |
| Metadati | OpenAI.Metadata o Null | No | ||
| Nome | Stringa | Il nome della corsa. | No |
Risposte
Codice di stato: 201
Descrizione: la richiesta ha avuto esito positivo e una nuova risorsa è stata creata di conseguenza.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.EvalRun |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Ottenere l'esecuzione di eval
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}
Recuperare un'esecuzione di valutazione specifica in base al relativo ID.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| eval_id | Percorso | Sì | Stringa | |
| run_id | Percorso | Sì | Stringa |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.EvalRun |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Annullare l'esecuzione di eval
POST {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}
Annullare un'esecuzione di valutazione specifica in base al relativo ID.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| eval_id | Percorso | Sì | Stringa | |
| run_id | Percorso | Sì | Stringa |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.EvalRun |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Eliminare l'esecuzione di eval
DELETE {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}
Eliminare una valutazione specifica eseguita dal relativo ID.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| eval_id | Percorso | Sì | Stringa | |
| run_id | Percorso | Sì | Stringa |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Ottenere gli elementi di output dell'esecuzione di eval
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items
Ottenere un elenco di elementi di output per un'esecuzione di valutazione specificata.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| eval_id | Percorso | Sì | Stringa | |
| run_id | Percorso | Sì | Stringa | |
| Dopo | Query | No | Stringa | |
| Limite | Query | No | Intero | |
| Stato | Query | No | Stringa Valori possibili: fail, pass |
|
| Ordine | Query | No | Stringa Valori possibili: asc, desc |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.EvalRunOutputItemList |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Ottenere l'elemento di output dell'esecuzione di eval
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items/{output_item_id}
Recuperare un elemento di output specifico da un'esecuzione di valutazione in base al relativo ID.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| eval_id | Percorso | Sì | Stringa | |
| run_id | Percorso | Sì | Stringa | |
| output_item_id | Percorso | Sì | Stringa |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.EvalRunOutputItem |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
File
Creare un file
POST {endpoint}/openai/v1/files
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
Corpo della richiesta
Tipo di contenuto: multipart/form-data
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| expires_after | Oggetto | Sì | ||
| Ancoraggio └* | AzureFileExpiryAnchor | Sì | ||
| └> secondi | Intero | Sì | ||
| File | Oggetto File (non nome file) da caricare. | Sì | ||
| Scopo | Enum | Scopo previsto del file caricato. Uno di: - assistants: usato nell'API Assistants - batch: Usato nell'API Batch - fine-tune: usato per l'ottimizzazione- evals: usato per set di dati evalValori possibili: assistants, batch, fine-tune, evals |
Sì |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Esempi
Esempio
POST {endpoint}/openai/v1/files
Elencare i file
GET {endpoint}/openai/v1/files
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| Scopo | Query | No | Stringa | |
| Limite | Query | No | Intero | |
| Ordine | Query | No | Stringa Valori possibili: asc, desc |
|
| Dopo | Query | No | Stringa |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ListFilesResponse |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Recuperare il file
GET {endpoint}/openai/v1/files/{file_id}
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| File_id | Percorso | Sì | Stringa | ID del file da utilizzare per questa richiesta. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Elimina file
DELETE {endpoint}/openai/v1/files/{file_id}
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| File_id | Percorso | Sì | Stringa | ID del file da utilizzare per questa richiesta. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.DeleteFileResponse |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Scaricare il file
GET {endpoint}/openai/v1/files/{file_id}/content
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| File_id | Percorso | Sì | Stringa | ID del file da utilizzare per questa richiesta. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/octet-stream | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Incorporamenti
Creare l'incorporamento
POST {endpoint}/openai/v1/embeddings
Crea un vettore di incorporamento che rappresenta il testo di input.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dimensioni | Intero | Il numero di dimensioni che dovrebbero avere gli embedding di output risultanti. Supportato solo nei text-embedding-3 modelli e nei modelli successivi.Vincoli: min: 1 |
No | |
| encoding_format | Enum | Il formato per restituire gli embedding. Può essere uno o floatl'altro base64 o .Valori possibili: float, base64 |
No | |
| Input | stringa o matrice di stringhe o matrice di numeri interi o matrice di matrice | Input text da incorporare, codificato come stringa o array di token. Per incorporare più input in una singola richiesta, passa un array di stringhe o array di token. L'input non deve superare i token di input massimi per il modello (8.192 token per tutti i modelli di incorporamento), non può essere una stringa vuota e qualsiasi matrice deve avere dimensioni di 2.048 o meno. Codice Python di esempio per il conteggio dei token. Oltre al limite di token per input, tutti i modelli di incorporamento applicano un massimo di 300.000 token sommati in tutti gli input in una singola richiesta. | Sì | |
| Modello | Stringa | ID del modello da utilizzare. È possibile usare l'API List models (Elenco modelli ) per visualizzare tutti i modelli disponibili o vedere la panoramica del modello per le descrizioni. | Sì | |
| Utente | Stringa | Altre informazioni. | No |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.CreateEmbeddingResponse |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Esempi
Esempio
POST {endpoint}/openai/v1/embeddings
Messa
Eseguire grader
POST {endpoint}/openai/v1/fine_tuning/alpha/graders/run
Eseguire un grader.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Selezionatore | OpenAI.GraderStringCheck o OpenAI.GraderTextSimilarity o OpenAI.GraderPython o OpenAI.GraderScoreModel o OpenAI.GraderMulti o GraderEndpoint | Grader utilizzato per il processo di ottimizzazione. | Sì | |
| Elemento | OpenAI.RunGraderRequestItem | No | ||
| model_sample | Stringa | Esempio di modello da valutare. Questo valore verrà usato per popolare spazio sample dei nomi. Per altri dettagli, vedere la guida .La output_json variabile verrà popolata se l'esempio di modello è unstringa JSON valida. |
Sì |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.RunGraderResponse |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Convalidare il classificatore
POST {endpoint}/openai/v1/fine_tuning/alpha/graders/validate
Convalidare un classificatore.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Selezionatore | OpenAI.GraderStringCheck o OpenAI.GraderTextSimilarity o OpenAI.GraderPython o OpenAI.GraderScoreModel o OpenAI.GraderMulti o GraderEndpoint | No |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ValidateGraderResponse |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Elencare le autorizzazioni del checkpoint di ottimizzazione fine
GET {endpoint}/openai/v1/fine_tuning/checkpoints/{fine_tuned_model_checkpoint}/permissions
Elencare le autorizzazioni del checkpoint
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| fine_tuned_model_checkpoint | Percorso | Sì | Stringa | ID del checkpoint del modello ottimizzato per cui ottenere le autorizzazioni. |
| project_id | Query | No | Stringa | ID del progetto per cui ottenere le autorizzazioni. |
| Dopo | Query | No | Stringa | Identificatore per l'ultimo ID autorizzazione della richiesta di paginazione precedente. |
| Limite | Query | No | Intero | Numero di autorizzazioni da recuperare. |
| Ordine | Query | No | Stringa Valori possibili: ascending, descending |
Ordine in cui recuperare le autorizzazioni. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ListFineTuningCheckpointPermissionResponse |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Creare un'autorizzazione per il checkpoint di ottimizzazione fine
POST {endpoint}/openai/v1/fine_tuning/checkpoints/{fine_tuned_model_checkpoint}/permissions
Creare autorizzazioni di checkpoint
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| fine_tuned_model_checkpoint | Percorso | Sì | Stringa | ID del checkpoint del modello ottimizzato per la creazione di un'autorizzazione. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| project_ids | matrice di stringhe | Identificatori del progetto a cui concedere l'accesso. | Sì |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ListFineTuningCheckpointPermissionResponse |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Eliminare l'autorizzazione del checkpoint di ottimizzazione fine
DELETE {endpoint}/openai/v1/fine_tuning/checkpoints/{fine_tuned_model_checkpoint}/permissions/{permission_id}
Eliminare l'autorizzazione del checkpoint
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| fine_tuned_model_checkpoint | Percorso | Sì | Stringa | ID del checkpoint del modello ottimizzato per l'eliminazione di un'autorizzazione. |
| permission_id | Percorso | Sì | Stringa | ID dell'autorizzazione del checkpoint del modello ottimizzata da eliminare. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.DeleteFineTuningCheckpointPermissionResponse |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Creare un processo di ottimizzazione fine
POST {endpoint}/openai/v1/fine_tuning/jobs
Crea un processo di ottimizzazione che inizia il processo di creazione di un nuovo modello da un determinato set di dati.
La risposta include i dettagli del processo accodato, inclusi lo stato del processo e il nome dei modelli ottimizzati al termine.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| iperparametri | OpenAI.CreateFineTuningJobRequestHyperparameters | No | ||
| └batch_size | stringa o integer | No | Automatico | |
| └learning_rate_multiplier | stringa o numero | No | ||
| └n_epochs | stringa o integer | No | Automatico | |
| Integrazioni | matrice di OpenAI.CreateFineTuningJobRequestIntegrations o null | Elenco di integrazioni da abilitare per il processo di ottimizzazione. | No | |
| Metadati | OpenAI.Metadata o Null | No | ||
| Metodo | OpenAI.FineTuneMethod | Metodo utilizzato per l'ottimizzazione. | No | |
| Modello | string (vedere modelli validi di seguito) | Nome del modello da ottimizzare. È possibile selezionare una delle modelli supportati. |
Sì | |
| Seme | integer o null | Il valore di inizializzazione controlla la riproducibilità del processo. Passare gli stessi parametri seed e job dovrebbe produrre gli stessi risultati, ma può differire in rari casi. Se non viene specificato un valore di inizializzazione, ne verrà generato uno automaticamente. |
No | |
| Suffisso | stringa o null | Stringa di un massimo di 64 caratteri che verrà aggiunta al nome del modello ottimizzato. Ad esempio, un suffix valore di "custom-model-name" produce un nome di modello come ft:gpt-4o-mini:openai:custom-model-name:7p4lURel. |
No | |
| training_file | Stringa | ID di un file caricato che contiene i dati di training. Per informazioni su come caricare un file, vedere Caricare un file. Il set di dati deve essere formattato come file JSONL. Inoltre, è necessario caricare il file con lo scopo fine-tune.Il contenuto del file deve variare a seconda che il modello usi la chat, il formato dei completamenti o se il metodo di ottimizzazione usa il formato preferenza . Per altri dettagli, vedere la guida all'ottimizzazione . |
Sì | |
| validation_file | stringa o null | ID di un file caricato che contiene i dati di convalida. Se si specifica questo file, i dati vengono usati per generare la convalida metriche periodicamente durante l'ottimizzazione. Queste metriche possono essere visualizzate in file dei risultati di ottimizzazione. Gli stessi dati non devono essere presenti sia nei file di training che in quello di convalida. Il set di dati deve essere formattato come file JSONL. È necessario caricare il file con lo scopo fine-tune.Per altri dettagli, vedere la guida all'ottimizzazione . |
No |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Elencare i processi di ottimizzazione delle prestazioni impaginati
GET {endpoint}/openai/v1/fine_tuning/jobs
Elencare i processi di ottimizzazione dell'organizzazione
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| Dopo | Query | No | Stringa | Identificatore per l'ultimo processo della richiesta di impaginazione precedente. |
| Limite | Query | No | Intero | Numero di processi di ottimizzazione da recuperare. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ListPaginatedFineTuningJobsResponse |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Recuperare un processo di ottimizzazione fine
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}
Ottenere informazioni su un processo di ottimizzazione.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| fine_tuning_job_id | Percorso | Sì | Stringa | ID del processo di ottimizzazione. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Annullare il processo di ottimizzazione
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/cancel
Annullare immediatamente un processo di ottimizzazione.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| fine_tuning_job_id | Percorso | Sì | Stringa | ID del processo di ottimizzazione da annullare. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Elencare i checkpoint dei processi di ottimizzazione
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints
Elencare i checkpoint per un processo di ottimizzazione.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| fine_tuning_job_id | Percorso | Sì | Stringa | ID del processo di ottimizzazione per cui ottenere i checkpoint. |
| Dopo | Query | No | Stringa | Identificatore per l'ultimo ID del checkpoint dalla precedente richiesta di paginazione. |
| Limite | Query | No | Intero | Numero di posti di blocco da recuperare. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ListFineTuningJobCheckpointsResponse |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Ottimizzazione - Checkpoint di copia
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy
Crea una copia di un checkpoint di ottimizzazione fine nell'account e nell'area di destinazione specificati.
NOTA: questa API OpenAI di Azure è in anteprima e soggetta a modifiche.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| fine_tuning_job_id | Percorso | Sì | Stringa | |
| fine_tuning_checkpoint_id | Percorso | Sì | Stringa |
Intestazione richiesta
| Nome | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|
| aoai-copy-ft-checkpoints | Vero | Stringa Valori possibili: preview |
Consente l'accesso alle operazioni di copia del checkpoint per i modelli, una funzionalità di anteprima di AOAI. Questa funzionalità richiede che l'intestazione 'aoai-copy-ft-checkpoints' sia impostata su 'preview'. |
| Accettare | Vero | Stringa Valori possibili: application/json |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| destinationResourceId | Stringa | ID della risorsa di destinazione da copiare. | Sì | |
| Regione | Stringa | Area in cui copiare il modello. | Sì |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | CopyModelResponse |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Ottimizzazione - Ottenere un checkpoint
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy
Ottiene lo stato di una copia del checkpoint di ottimizzazione.
NOTA: questa API OpenAI di Azure è in anteprima e soggetta a modifiche.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| fine_tuning_job_id | Percorso | Sì | Stringa | |
| fine_tuning_checkpoint_id | Percorso | Sì | Stringa |
Intestazione richiesta
| Nome | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|
| aoai-copy-ft-checkpoints | Vero | Stringa Valori possibili: preview |
Consente l'accesso alle operazioni di copia del checkpoint per i modelli, una funzionalità di anteprima di AOAI. Questa funzionalità richiede che l'intestazione 'aoai-copy-ft-checkpoints' sia impostata su 'preview'. |
| Accettare | Vero | Stringa Valori possibili: application/json |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | CopyModelResponse |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Elencare gli eventi di ottimizzazione fine
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/events
Ottenere gli aggiornamenti dello stato per un processo di ottimizzazione.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| fine_tuning_job_id | Percorso | Sì | Stringa | ID del processo di ottimizzazione per cui ottenere gli eventi. |
| Dopo | Query | No | Stringa | Identificatore per l'ultimo evento della precedente richiesta di paginazione. |
| Limite | Query | No | Intero | Numero di eventi da recuperare. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ListFineTuningJobEventsResponse |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Sospendere il processo di ottimizzazione fine
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/pause
Sospendere un processo di ottimizzazione.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| fine_tuning_job_id | Percorso | Sì | Stringa | ID del processo di ottimizzazione da sospendere. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Riprendere il processo di ottimizzazione
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/resume
Riprendere un processo di ottimizzazione sospeso.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| fine_tuning_job_id | Percorso | Sì | Stringa | ID del processo di ottimizzazione da riprendere. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Modelli
Elencare i modelli
GET {endpoint}/openai/v1/models
Elenca i modelli attualmente disponibili e fornisce informazioni di base su ognuna, ad esempio il proprietario e la disponibilità.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ListModelsResponse |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Recuperare il modello
GET {endpoint}/openai/v1/models/{model}
Recupera un'istanza del modello, fornendo informazioni di base sul modello, ad esempio il proprietario e l'autorizzazione.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| Modello | Percorso | Sì | Stringa | ID del modello da utilizzare per questa richiesta. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.Model |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Eliminare un modello
DELETE {endpoint}/openai/v1/models/{model}
Elimina un'istanza del modello.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| Modello | Percorso | Sì | Stringa | ID del modello da eliminare. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.DeleteModelResponse |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Realtime
Creare una chiamata in tempo reale
POST {endpoint}/openai/v1/realtime/calls
Creare una nuova chiamata API realtime su WebRTC e ricevere la risposta SDP necessaria per completare la connessione peer.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
Corpo della richiesta
Tipo di contenuto: multipart/form-data
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Sdp | Stringa | Offerta SDP (WebRTC Session Description Protocol) generata dal chiamante. | Sì | |
| Sessione | OpenAI.RealtimeSessionCreateRequestGA | Configurazione in tempo reale degli oggetti di sessione. | No | |
| └* audio | OpenAI.RealtimeSessionCreateRequestGAAudio | Configurazione per l'input e l'output audio. | No | |
| └* include | matrice di stringhe | Campi aggiuntivi da includere negli output del server.item.input_audio_transcription.logprobs: includere logprobs per la trascrizione audio di input. |
No | |
| └* istruzioni | Stringa | Le istruzioni di sistema predefinite (cioè il messaggio di sistema) precedevano le chiamate del modello. Questo campo permette al cliente di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta( ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono garantite dal modello, ma forniscono indicazioni sul comportamento desiderato. Si noti che il server imposta le istruzioni predefinite che verranno utilizzate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione. |
No | |
| └max_output_tokens | integer (vedere modelli validi di seguito) | Numero massimo di token di output per una singola risposta di assistente, inclusivo delle chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 a limitare i token di output o inf per il numero massimo di token disponibili per unmodello specificato. Di default è inf. |
No | |
| Modello └* | Stringa | Modello in tempo reale utilizzato per questa sessione. | No | |
| └output_modalities | matrice di stringhe | L'insieme delle modalità a cui il modello può rispondere. L'impostazione ["audio"]predefinita è , che indicache il modello risponderà con audio più una trascrizione. ["text"] può essere usato per fareil modello risponde solo con testo. Non è possibile richiedere e textaudio allo stesso tempo. |
No | ['audio'] |
| └* prompt | OpenAI.Prompt | Riferimento a un modello di richiesta e alle relative variabili. Altre informazioni. |
No | |
| └tool_choice | OpenAI.ToolChoiceOptions o OpenAI.ToolChoiceFunction o OpenAI.ToolChoiceMCP | Come il modello sceglie gli strumenti. Specificare una delle modalità stringa o forzare una specifica strumento function/MCP. |
No | Automatico |
| Strumenti └* | matrice di OpenAI.RealtimeFunctionTool o OpenAI.MCPTool | Strumenti disponibili per il modello. | No | |
| └> traccia | string o OpenAI.RealtimeSessionCreateRequestGATracing o null | "" Impostare su null per disabilitare la traccia. Una volta la traccia è abilitata per una sessione, la configurazione non può essere modificata. auto creerà una traccia per la sessione con i valori predefiniti pernome del flusso di lavoro, ID gruppo e metadati. |
No | Automatico |
| └\ troncamento | OpenAI.RealtimeTruncation | Quando il numero di token in una conversazione supera il limite di token di input del modello, la conversazione viene troncata, ovvero i messaggi (a partire dal meno recente) non verranno inclusi nel contesto del modello. Un modello di contesto di 32k con 4.096 token di output massimo può includere solo 28.224 token nel contesto prima del troncamento. I client possono configurare il comportamento di troncamento con un limite massimo di token inferiore, un modo efficace per controllare l'utilizzo e i costi dei token. Il troncamento ridurrà il numero di token memorizzati nella cache al turno successivo (busting the cache), poiché i messaggi vengono eliminati dall'inizio del contesto. Tuttavia, i client possono anche configurare il troncamento per conservare i messaggi fino a una frazione delle dimensioni massime del contesto, riducendo così la necessità di troncamenti futuri e migliorando così la frequenza della cache. Il troncamento può essere disabilitato completamente, il che significa che il server non verrà mai troncato, ma restituirà invece un errore se la conversazione supera il limite di token di input del modello. |
No | |
| Tipo └* | Enum | Tipo di sessione da creare. Sempre realtime per l'API In tempo reale.Valori possibili: realtime |
Sì |
Risposte
Codice di stato: 201
Descrizione: la richiesta ha avuto esito positivo e una nuova risorsa è stata creata di conseguenza.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/sdp | Stringa |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| Posizione | Stringa | URL relativo contenente l'ID chiamata per le richieste di controllo successive. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Accettare una chiamata in tempo reale
POST {endpoint}/openai/v1/realtime/calls/{call_id}/accept
Accettare una chiamata SIP in ingresso e configurare la sessione in tempo reale che la gestirà.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| call_id | Percorso | Sì | Stringa | Identificatore della chiamata fornita nel webhook realtime.call.incoming. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Audio | OpenAI.RealtimeSessionCreateRequestGAAudio | No | ||
| Input └* | OpenAI.RealtimeSessionCreateRequestGAAudioInput | No | ||
| └* output | OpenAI.RealtimeSessionCreateRequestGAAudioOutput | No | ||
| Includono | matrice di stringhe | Campi aggiuntivi da includere negli output del server.item.input_audio_transcription.logprobs: includere logprobs per la trascrizione audio di input. |
No | |
| Istruzioni | Stringa | Le istruzioni di sistema predefinite (cioè il messaggio di sistema) precedevano le chiamate del modello. Questo campo permette al cliente di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta( ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono garantite dal modello, ma forniscono indicazioni sul comportamento desiderato. Si noti che il server imposta le istruzioni predefinite che verranno utilizzate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione. |
No | |
| max_output_tokens | integer (vedere modelli validi di seguito) | Numero massimo di token di output per una singola risposta di assistente, inclusivo delle chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 a limitare i token di output o inf per il numero massimo di token disponibili per unmodello specificato. Di default è inf. |
No | |
| Modello | Stringa | Modello in tempo reale utilizzato per questa sessione. | No | |
| output_modalities | matrice di stringhe | L'insieme delle modalità a cui il modello può rispondere. L'impostazione ["audio"]predefinita è , che indicache il modello risponderà con audio più una trascrizione. ["text"] può essere usato per fareil modello risponde solo con testo. Non è possibile richiedere e textaudio allo stesso tempo. |
No | ['audio'] |
| prompt | OpenAI.Prompt | Riferimento a un modello di richiesta e alle relative variabili. Altre informazioni. |
No | |
| tool_choice | OpenAI.ToolChoiceOptions o OpenAI.ToolChoiceFunction o OpenAI.ToolChoiceMCP | Come il modello sceglie gli strumenti. Specificare una delle modalità stringa o forzare una specifica strumento function/MCP. |
No | |
| Strumenti | matrice di OpenAI.RealtimeFunctionTool o OpenAI.MCPTool | Strumenti disponibili per il modello. | No | |
| Traccia | string o OpenAI.RealtimeSessionCreateRequestGATracing o null | "" Impostare su null per disabilitare la traccia. Una volta la traccia è abilitata per una sessione, la configurazione non può essere modificata. auto creerà una traccia per la sessione con i valori predefiniti pernome del flusso di lavoro, ID gruppo e metadati. |
No | |
| Troncamento | OpenAI.RealtimeTruncation | Quando il numero di token in una conversazione supera il limite di token di input del modello, la conversazione viene troncata, ovvero i messaggi (a partire dal meno recente) non verranno inclusi nel contesto del modello. Un modello di contesto di 32k con 4.096 token di output massimo può includere solo 28.224 token nel contesto prima del troncamento. I client possono configurare il comportamento di troncamento con un limite massimo di token inferiore, un modo efficace per controllare l'utilizzo e i costi dei token. Il troncamento ridurrà il numero di token memorizzati nella cache al turno successivo (busting the cache), poiché i messaggi vengono eliminati dall'inizio del contesto. Tuttavia, i client possono anche configurare il troncamento per conservare i messaggi fino a una frazione delle dimensioni massime del contesto, riducendo così la necessità di troncamenti futuri e migliorando così la frequenza della cache. Il troncamento può essere disabilitato completamente, il che significa che il server non verrà mai troncato, ma restituirà invece un errore se la conversazione supera il limite di token di input del modello. |
No | |
| digitare | Enum | Tipo di sessione da creare. Sempre realtime per l'API In tempo reale.Valori possibili: realtime |
Sì |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Hang up realtime call (Hang up realtime call)
POST {endpoint}/openai/v1/realtime/calls/{call_id}/hangup
Terminare una chiamata API realtime attiva, indipendentemente dal fatto che sia stata avviata tramite SIP o WebRTC.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| call_id | Percorso | Sì | Stringa | Identificatore della chiamata. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Fare riferimento alla chiamata in tempo reale
POST {endpoint}/openai/v1/realtime/calls/{call_id}/refer
Trasferire una chiamata SIP attiva a una nuova destinazione usando il verbo SIP REFER.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| call_id | Percorso | Sì | Stringa | Identificatore della chiamata fornita nel webhook realtime.call.incoming. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| target_uri | Stringa | URI che dovrebbe essere visualizzato nell'intestazione sip Refer-To. Supporta valori cometel:+14155550123 o sip:agent\@example.com. |
Sì |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Rifiuta chiamata in tempo reale
POST {endpoint}/openai/v1/realtime/calls/{call_id}/reject
Rifiutare una chiamata SIP in ingresso restituendo un codice di stato SIP al chiamante.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| call_id | Percorso | Sì | Stringa | Identificatore della chiamata fornita nel webhook realtime.call.incoming. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| status_code | Intero | Codice di risposta SIP da inviare al chiamante. Il valore predefinito è 603 (rifiuta)quando viene omesso. |
No |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Creare un segreto client in tempo reale
POST {endpoint}/openai/v1/realtime/client_secrets
Creare un segreto client in tempo reale con una configurazione di sessione associata.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| expires_after | OpenAI.RealtimeCreateClientSecretRequestExpiresAfter | No | ||
| Ancoraggio └* | Enum | Valori possibili: created_at |
No | |
| └> secondi | Intero | Vincoli: min: 10, max: 7200 | No | 600 |
| Sessione | OpenAI.RealtimeSessionCreateRequestUnion | No | ||
| Tipo └* | OpenAI.RealtimeSessionCreateRequestUnionType | Sì |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.RealtimeCreateClientSecretResponse |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Creare una sessione in tempo reale
POST {endpoint}/openai/v1/realtime/sessions
Crea un token API effimero da utilizzare nelle applicazioni lato client con l'API Realtime.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| client_secret | OpenAI.RealtimeSessionCreateRequestClientSecret | Sì | ||
| └expires_at | Intero | Sì | ||
| └* valore | Stringa | Sì | ||
| input_audio_format | Stringa | Il formato dell'audio in ingresso. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw. |
No | |
| input_audio_transcription | OpenAI.RealtimeSessionCreateRequestInputAudioTranscription | No | ||
| Modello └* | Stringa | No | ||
| Istruzioni | Stringa | Le istruzioni di sistema predefinite (cioè il messaggio di sistema) precedevano le chiamate del modello. Questo campo permette al cliente di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta( ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono garantite dal modello, ma forniscono indicazioni sul comportamento desiderato. Si noti che il server imposta le istruzioni predefinite che verranno utilizzate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione. |
No | |
| max_response_output_tokens | integer (vedere modelli validi di seguito) | Numero massimo di token di output per una singola risposta di assistente, inclusivo delle chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 a limitare i token di output o inf per il numero massimo di token disponibili per unmodello specificato. Di default è inf. |
No | |
| Modalità | matrice di stringhe | L'insieme delle modalità a cui il modello può rispondere. Per disabilitare l'audio, impostare su ["text"]. |
No | ['text', 'audio'] |
| output_audio_format | Stringa | Il formato dell'audio in uscita. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw. |
No | |
| prompt | OpenAI.Prompt | Riferimento a un modello di richiesta e alle relative variabili. Altre informazioni. |
No | |
| Velocità | Numero | Velocità della risposta pronunciata del modello. 1.0 è la velocità predefinita. 0.25 è la velocità minima. 1,5 è la velocità massima. Questo valore può essere modificato solo tra i turni del modello, non mentre è in corso una risposta. Vincoli: min: 0,25, max: 1,5 |
No | 1 |
| Temperatura | Numero | La temperatura di campionamento per il modello è limitata a [0,6, 1,2]. Di default è 0.8. | No | |
| tool_choice | Stringa | Come il modello sceglie gli strumenti. Le opzioni sono auto, none, requiredospecificare una funzione. |
No | |
| Strumenti | matrice di OpenAI.RealtimeSessionCreateRequestTools | Strumenti (funzioni) disponibili per il modello. | No | |
| Traccia | stringa o oggetto | Opzioni di configurazione per la traccia. Impostare su Null per disabilitare la traccia. Una volta la traccia è abilitata per una sessione, la configurazione non può essere modificata. auto creerà una traccia per la sessione con i valori predefiniti pernome del flusso di lavoro, ID gruppo e metadati. |
No | |
| Troncamento | OpenAI.RealtimeTruncation | Quando il numero di token in una conversazione supera il limite di token di input del modello, la conversazione viene troncata, ovvero i messaggi (a partire dal meno recente) non verranno inclusi nel contesto del modello. Un modello di contesto di 32k con 4.096 token di output massimo può includere solo 28.224 token nel contesto prima del troncamento. I client possono configurare il comportamento di troncamento con un limite massimo di token inferiore, un modo efficace per controllare l'utilizzo e i costi dei token. Il troncamento ridurrà il numero di token memorizzati nella cache al turno successivo (busting the cache), poiché i messaggi vengono eliminati dall'inizio del contesto. Tuttavia, i client possono anche configurare il troncamento per conservare i messaggi fino a una frazione delle dimensioni massime del contesto, riducendo così la necessità di troncamenti futuri e migliorando così la frequenza della cache. Il troncamento può essere disabilitato completamente, il che significa che il server non verrà mai troncato, ma restituirà invece un errore se la conversazione supera il limite di token di input del modello. |
No | |
| turn_detection | OpenAI.RealtimeSessionCreateRequestTurnDetection | No | ||
| └prefix_padding_ms | Intero | No | ||
| └silence_duration_ms | Intero | No | ||
| └* soglia | Numero | No | ||
| Tipo └* | Stringa | No | ||
| digitare | Enum | Valori possibili: realtime |
Sì | |
| Voce | OpenAI.VoiceIdsShared | No |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.RealtimeSessionCreateResponse |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Creare una sessione di trascrizione in tempo reale
POST {endpoint}/openai/v1/realtime/transcription_sessions
Crea un token API effimero da utilizzare in applicazioni lato client con l'API Realtime specificamente per trascrizioni in tempo reale.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Includono | matrice di stringhe | Il set di elementi da includere nella trascrizione. Gli articoli attualmente disponibili sono:item.input_audio_transcription.logprobs |
No | |
| input_audio_format | Enum | Il formato dell'audio in ingresso. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw.Per pcm16, l'audio di input deve essere PCM a 16 bit a una frequenza di campionamento di 24 kHz,singolo canale (mono) e ordine dei byte little-endian. Valori possibili: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | OpenAI.RealtimeTranscriptionSessionCreateRequestInputAudioNoiseReduction | No | ||
| Tipo └* | OpenAI.NoiseReductionType | Tipo di riduzione del rumore.
near_field è per microfoni ravvicinati come le cuffie, è far_field per microfoni a campo lontano come laptop o microfoni di sala conferenze. |
No | |
| input_audio_transcription | OpenAI.AudioTranscription | No | ||
| └* lingua | Stringa | Il linguaggio dell'audio in ingresso. Specifica della lingua di input in Formato ISO-639-1 (ad esempio en)migliorerà l'accuratezza e la latenza. |
No | |
| Modello └* | Stringa | Il modello da usare per la trascrizione. Le opzioni correnti sono whisper-1, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15gpt-4o-transcribe, e gpt-4o-transcribe-diarize. Usare gpt-4o-transcribe-diarize quando è necessaria la diarizzazione con le etichette dell'altoparlante. |
No | |
| └* prompt | Stringa | Testo facoltativo per guidare lo stile del modello o continuare un audio precedente Segmento. Per whisper-1, il prompt è un elenco di parole chiave.Per gpt-4o-transcribe i modelli (escluso gpt-4o-transcribe-diarize), il prompt è una stringa di testo libero, ad esempio "aspetta parole correlate alla tecnologia". |
No | |
| turn_detection | OpenAI.RealtimeTranscriptionSessionCreateRequestTurnDetection | No | ||
| └prefix_padding_ms | Intero | No | ||
| └silence_duration_ms | Intero | No | ||
| └* soglia | Numero | No | ||
| Tipo └* | Enum | Valori possibili: server_vad |
No | |
| digitare | Enum | Valori possibili: transcription |
Sì |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.RealtimeTranscriptionSessionCreateResponse |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Risposte
Creare una risposta
POST {endpoint}/openai/v1/responses
Crea una risposta modello.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Priorità bassa | booleano o null | No | ||
| Conversazione | OpenAI.ConversationParam o null | No | ||
| Includono | matrice di OpenAI.IncludeEnum o null | No | ||
| Input | OpenAI.InputParam | Input di testo, immagine o file al modello, utilizzati per generare una risposta. Ulteriori informazioni: - Input di testo e output - Input dell'immagine - Input di file - Stato conversazione - Chiamata di funzione |
No | |
| Istruzioni | stringa o null | No | ||
| max_output_tokens | integer o null | No | ||
| max_tool_calls | integer o null | No | ||
| Metadati | OpenAI.Metadata o Null | No | ||
| Modello | Stringa | ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAIoffre un'ampia gamma di modelli con diverse funzionalità, prestazioni caratteristiche e punti di prezzo. Fare riferimento alla guida al modello per esplorare e confrontare i modelli disponibili. |
No | |
| parallel_tool_calls | booleano o null | No | ||
| previous_response_id | stringa o null | No | ||
| prompt | OpenAI.Prompt | Riferimento a un modello di richiesta e alle relative variabili. Altre informazioni. |
No | |
| prompt_cache_key | Stringa | Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo.
Altre informazioni. |
No | |
| prompt_cache_retention | stringa o null | No | ||
| Ragionamento | OpenAI.Reasoning o null | No | ||
| safety_identifier | Stringa | Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI. Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni. |
No | |
| Negozio | booleano o null | No | ||
| Flusso | booleano o null | No | ||
| stream_options | OpenAI.ResponseStreamOptions o null | No | ||
| Temperatura | number o null | No | ||
| Testo | OpenAI.ResponseTextParam | Opzioni di configurazione per una risposta testuale dal modello. Può essere semplice dati JSON strutturati o di testo. Ulteriori informazioni: - Input di testo e output - Output strutturati |
No | |
| tool_choice | OpenAI.ToolChoiceParam | Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione una risposta. Vedere il tools parametro per vedere come specificare gli strumentiil modello può chiamare. |
No | |
| Strumenti | OpenAI.ToolsArray | Una serie di strumenti che il modello può chiamare mentre genera una risposta. Tu può specificare quale strumento usare impostando il tool_choice parametro .Sono supportate le categorie di strumenti seguenti: - Strumenti integrati: Strumenti forniti da OpenAI che estendono la funzionalità del modello, ad esempio la ricerca Web o ricerca di file. Altre informazioni strumenti predefiniti. - Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni Strumenti MCP. - Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente, abilitazione del modello per chiamare il proprio codice con argomenti fortemente tipizzato e output. Altre informazioni chiamata di funzione. È anche possibile usare strumenti personalizzati per chiamare il proprio codice. |
No | |
| top_logprobs | integer o null | No | ||
| top_p | number o null | No | ||
| Troncamento | stringa o null | No | ||
| Utente | stringa (deprecata) | Questo campo viene sostituito da safety_identifier e prompt_cache_key. Usare prompt_cache_key invece per mantenere le ottimizzazioni della memorizzazione nella cache.Identificatore stabile per gli utenti finali. Usato per aumentare la frequenza di riscontri nella cache migliorando il bucket di richieste simili e per consentire a OpenAI di rilevare e prevenire abusi. Altre informazioni. |
No |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto | |
| text/event-stream | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Esempi
Esempio
POST {endpoint}/openai/v1/responses
Ottenere la risposta
GET {endpoint}/openai/v1/responses/{response_id}
Recupera una risposta del modello con l'ID fornito.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| response_id | Percorso | Sì | Stringa | |
| include[] | Query | No | Matrice | Campi aggiuntivi da includere nella risposta. Per altre informazioni, vedere il parametro di inclusione per la creazione della risposta precedente. |
| Flusso | Query | No | Boolean | Se impostato su true, i dati di risposta del modello verranno trasmessi al client durante la generazione tramite eventi inviati dal server. |
| starting_after | Query | No | Intero | Numero di sequenza dell'evento dopo il quale avviare lo streaming. |
| include_obfuscation | Query | No | Boolean | Se true, l'offuscamento del flusso verrà abilitato. L'offuscamento del flusso aggiunge caratteri casuali a un obfuscation campo sugli eventi delta di streaming per normalizzare le dimensioni del payload come mitigazione di determinati attacchi sul canale laterale. Questi campi offuscamento sono inclusi per impostazione predefinita, ma aggiungono una piccola quantità di overhead al flusso di dati. È possibile impostare su include_obfuscation false per ottimizzare la larghezza di banda se si considera attendibile i collegamenti di rete tra l'applicazione e l'API OpenAI. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Eliminare la risposta
DELETE {endpoint}/openai/v1/responses/{response_id}
Elimina una risposta in base all'ID.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| response_id | Percorso | Sì | Stringa |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Annulla risposta
POST {endpoint}/openai/v1/responses/{response_id}/cancel
Annulla una risposta del modello con l'ID specificato. È possibile annullare solo le risposte create con il parametro in background impostato su true.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| response_id | Percorso | Sì | Stringa |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Elencare gli elementi di input
GET {endpoint}/openai/v1/responses/{response_id}/input_items
Restituisce un elenco di elementi di input per una data risposta.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| response_id | Percorso | Sì | Stringa | |
| Limite | Query | No | Intero | Un limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20. |
| Ordine | Query | No | Stringa Valori possibili: asc, desc |
Ordina in base al created_at timestamp degli oggetti.
asc per l'ordine crescente edescper ordine decrescente. |
| Dopo | Query | No | Stringa | Un cursore per l'uso nella paginazione.
after è un ID oggetto che definisce il tuo posto nella lista.Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco. |
| Prima | Query | No | Stringa | Un cursore per l'uso nella paginazione.
before è un ID oggetto che definisce il tuo posto nella lista.Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ResponseItemList |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Discussioni
Creare un thread
POST {endpoint}/openai/v1/threads
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Messaggi | matrice di OpenAI.CreateMessageRequest | Elenco di messaggi con cui avviare il thread. | No | |
| Metadati | OpenAI.Metadata o Null | No | ||
| tool_resources | OpenAI.CreateThreadRequestToolResources o null | No |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ThreadObject |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Creare ed eseguire
POST {endpoint}/openai/v1/threads/runs
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| assistant_id | Stringa | ID dell'assistente da usare per eseguire questa esecuzione. | Sì | |
| Istruzioni | stringa o null | Sovrascrivi il messaggio di sistema predefinito dell'assistente. Questo è utile per modificare il comportamento su base per run. | No | |
| max_completion_tokens | integer o null | Il numero massimo di gettoni di completamento che possono essere utilizzati durante la run. L'esecuzione farà del meglio per usare solo il numero di token di completamento specificati, in più turni dell'esecuzione. Se la corsa supera il numero di token di completamento specificato, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni. |
No | |
| max_prompt_tokens | integer o null | Il numero massimo di token prompt che possono essere utilizzati durante la run. L'esecuzione farà del meglio per usare solo il numero di token di richiesta specificati, in più turni dell'esecuzione. Se la corsa supera il numero di token prompt specificati, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni. |
No | |
| Metadati | OpenAI.Metadata o Null | No | ||
| Modello | Stringa | ID del modello da utilizzare per eseguire questa esecuzione. Se qui viene fornito un valore, esso sovrascriverà il modello associato all'assistente. In caso contrario, verrà utilizzato il modello associato all'assistente. | No | |
| parallel_tool_calls | OpenAI.ParallelToolCalls | Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. | No | |
| response_format | OpenAI.AssistantsApiResponseFormatOption | Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.Importante:* quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto. |
No | |
| Flusso | booleano o null | Se true, restituisce un flusso di eventi che avvengono durante la Run come eventi inviati dal server, terminando quando la Run entra in uno stato terminale con un data: [DONE] messaggio. |
No | |
| Temperatura | number o null | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. | No | |
| Thread | OpenAI.CreateThreadRequest | Opzioni per creare un nuovo thread. Se non viene fornito alcun thread durante l'esecuzione di un request, verrà creato un thread vuoto. |
No | |
| tool_choice | OpenAI.AssistantsApiToolChoiceOption | Controlla quale (se presente) strumento viene chiamato dal modello.none significa che il modello non richiamerà nessuno strumento ma invece genera un messaggio.auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.required indica che il modello deve chiamare uno o più strumenti prima di rispondere all'utente.Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo. |
No | |
| tool_resources | OpenAI.CreateThreadAndRunRequestToolResources o null | Un insieme di risorse utilizzate dagli strumenti dell'assistente. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale. |
No | |
| Strumenti | matrice di OpenAI.AssistantTool | Sovrascrivi gli strumenti che l'assistente può usare per questa corsa. Questo è utile per modificare il comportamento su base per run. | No | |
| top_p | number o null | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. In genere consigliamo di modificare questo o la temperatura, ma non entrambi. |
No | |
| truncation_strategy | OpenAI.TruncationObject | Controlli su come un thread verrà troncato prima dell'esecuzione. Usa questo per controllare la finestra contestuale iniziale della run. | No |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.RunObject |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Elimina thread
DELETE {endpoint}/openai/v1/threads/{thread_id}
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| thread_id | Percorso | Sì | Stringa |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.DeleteThreadResponse |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Recuperare il thread
GET {endpoint}/openai/v1/threads/{thread_id}
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| thread_id | Percorso | Sì | Stringa |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ThreadObject |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Modificare il thread
POST {endpoint}/openai/v1/threads/{thread_id}
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| thread_id | Percorso | Sì | Stringa |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Metadati | OpenAI.Metadata o Null | No | ||
| tool_resources | OpenAI.ModifyThreadRequestToolResources o null | No |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ThreadObject |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Elencare i messaggi
GET {endpoint}/openai/v1/threads/{thread_id}/messages
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| thread_id | Percorso | Sì | Stringa | |
| Limite | Query | No | Intero | |
| Ordine | Query | No | Stringa Valori possibili: asc, desc |
|
| Dopo | Query | No | Stringa | |
| Prima | Query | No | Stringa | |
| run_id | Query | No | Stringa |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ListMessagesResponse |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Creare un messaggio
POST {endpoint}/openai/v1/threads/{thread_id}/messages
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| thread_id | Percorso | Sì | Stringa |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Allegati | matrice di OpenAI.CreateMessageRequestAttachments o null | No | ||
| Contenuto | stringa o matrice di OpenAI.MessageContentImageFileObject o OpenAI.MessageContentImageUrlObject o OpenAI.MessageRequestContentTextObject | Sì | ||
| Metadati | OpenAI.Metadata o Null | No | ||
| Ruolo | Enum | Il ruolo dell'entità che crea il messaggio. I valori consentiti includono: - user: Indica che il messaggio è stato inviato da un utente reale e dovrebbe essere usato nella maggior parte dei casi per rappresentare messaggi generati dall'utente.- assistant: Indica che il messaggio è stato generato dall'assistente. Usa questo valore per inserire messaggi dall'assistente nella conversazione.Valori possibili: user, assistant |
Sì |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.MessageObject |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Elimina messaggio
DELETE {endpoint}/openai/v1/threads/{thread_id}/messages/{message_id}
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| thread_id | Percorso | Sì | Stringa | |
| message_id | Percorso | Sì | Stringa |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.DeleteMessageResponse |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Recuperare il messaggio
GET {endpoint}/openai/v1/threads/{thread_id}/messages/{message_id}
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| thread_id | Percorso | Sì | Stringa | |
| message_id | Percorso | Sì | Stringa |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.MessageObject |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Modificare il messaggio
POST {endpoint}/openai/v1/threads/{thread_id}/messages/{message_id}
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| thread_id | Percorso | Sì | Stringa | |
| message_id | Percorso | Sì | Stringa |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Metadati | OpenAI.Metadata o Null | No |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.MessageObject |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Creare l'esecuzione
POST {endpoint}/openai/v1/threads/{thread_id}/runs
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| thread_id | Percorso | Sì | Stringa |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| additional_instructions | stringa o null | Aggiunge istruzioni aggiuntive alla fine delle istruzioni per la corsa. Questo è utile per modificare il comportamento su base per run senza sovrascrivere altre istruzioni. | No | |
| additional_messages | matrice di OpenAI.CreateMessageRequest o null | Aggiunge messaggi aggiuntivi al thread prima di creare la run. | No | |
| assistant_id | Stringa | ID dell'assistente da usare per eseguire questa esecuzione. | Sì | |
| Istruzioni | stringa o null | Esegue l'override delle istruzioni dell'assistente. Questo è utile per modificare il comportamento su base per run. | No | |
| max_completion_tokens | integer o null | Il numero massimo di gettoni di completamento che possono essere utilizzati durante la run. L'esecuzione farà del meglio per usare solo il numero di token di completamento specificati, in più turni dell'esecuzione. Se la corsa supera il numero di token di completamento specificato, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni. |
No | |
| max_prompt_tokens | integer o null | Il numero massimo di token prompt che possono essere utilizzati durante la run. L'esecuzione farà del meglio per usare solo il numero di token di richiesta specificati, in più turni dell'esecuzione. Se la corsa supera il numero di token prompt specificati, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni. |
No | |
| Metadati | OpenAI.Metadata o Null | No | ||
| Modello | Stringa | ID del modello da utilizzare per eseguire questa esecuzione. Se qui viene fornito un valore, esso sovrascriverà il modello associato all'assistente. In caso contrario, verrà utilizzato il modello associato all'assistente. | No | |
| parallel_tool_calls | OpenAI.ParallelToolCalls | Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. | No | |
| reasoning_effort | OpenAI.ReasoningEffort | Vincola lo sforzo sul ragionamento per ragionamento dei modelli. I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurrel'impegno di ragionamento può comportare risposte più veloci e meno token usati sul ragionamento in una risposta. - gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max. |
No | |
| response_format | OpenAI.AssistantsApiResponseFormatOption | Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.Importante:* quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto. |
No | |
| Flusso | booleano o null | Se true, restituisce un flusso di eventi che avvengono durante la Run come eventi inviati dal server, terminando quando la Run entra in uno stato terminale con un data: [DONE] messaggio. |
No | |
| Temperatura | number o null | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. | No | |
| tool_choice | OpenAI.AssistantsApiToolChoiceOption | Controlla quale (se presente) strumento viene chiamato dal modello.none significa che il modello non richiamerà nessuno strumento ma invece genera un messaggio.auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.required indica che il modello deve chiamare uno o più strumenti prima di rispondere all'utente.Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo. |
No | |
| Strumenti | matrice di OpenAI.AssistantTool | Sovrascrivi gli strumenti che l'assistente può usare per questa corsa. Questo è utile per modificare il comportamento su base per run. | No | |
| top_p | number o null | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. In genere consigliamo di modificare questo o la temperatura, ma non entrambi. |
No | |
| truncation_strategy | OpenAI.TruncationObject | Controlli su come un thread verrà troncato prima dell'esecuzione. Usa questo per controllare la finestra contestuale iniziale della run. | No |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.RunObject |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Elencare le esecuzioni
GET {endpoint}/openai/v1/threads/{thread_id}/runs
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| thread_id | Percorso | Sì | Stringa | |
| Limite | Query | No | Intero | |
| Ordine | Query | No | Stringa Valori possibili: asc, desc |
|
| Dopo | Query | No | Stringa | |
| Prima | Query | No | Stringa |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ListRunsResponse |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Recuperare l'esecuzione
GET {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| thread_id | Percorso | Sì | Stringa | |
| run_id | Percorso | Sì | Stringa |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.RunObject |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Modificare l'esecuzione
POST {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| thread_id | Percorso | Sì | Stringa | |
| run_id | Percorso | Sì | Stringa |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Metadati | OpenAI.Metadata o Null | No |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.RunObject |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Annulla esecuzione
POST {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/cancel
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| thread_id | Percorso | Sì | Stringa | |
| run_id | Percorso | Sì | Stringa |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.RunObject |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Elencare i passaggi di esecuzione
GET {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/steps
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| thread_id | Percorso | Sì | Stringa | |
| run_id | Percorso | Sì | Stringa | |
| Limite | Query | No | Intero | |
| Ordine | Query | No | Stringa Valori possibili: asc, desc |
|
| Dopo | Query | No | Stringa | |
| Prima | Query | No | Stringa |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ListRunStepsResponse |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Ottenere il passaggio di esecuzione
GET {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/steps/{step_id}
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| thread_id | Percorso | Sì | Stringa | |
| run_id | Percorso | Sì | Stringa | |
| step_id | Percorso | Sì | Stringa |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.RunStepObject |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Inviare output dello strumento per l'esecuzione
POST {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/submit_tool_outputs
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| thread_id | Percorso | Sì | Stringa | |
| run_id | Percorso | Sì | Stringa |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Flusso | booleano o null | No | ||
| tool_outputs | matrice di OpenAI.SubmitToolOutputsRunRequestToolOutputs | Un elenco degli strumenti per cui vengono inviati i risultati. | Sì |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.RunObject |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Archivi vettoriali
Elencare gli archivi vettoriali
GET {endpoint}/openai/v1/vector_stores
Restituisce un elenco di store vettoriali.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| Limite | Query | No | Intero | Un limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20. |
| Ordine | Query | No | Stringa Valori possibili: asc, desc |
Ordina in base al created_at timestamp degli oggetti.
asc per l'ordine crescente edescper ordine decrescente. |
| Dopo | Query | No | Stringa | Un cursore per l'uso nella paginazione.
after è un ID oggetto che definisce il tuo posto nella lista.Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco. |
| Prima | Query | No | Stringa | Un cursore per l'uso nella paginazione.
before è un ID oggetto che definisce il tuo posto nella lista.Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ListVectorStoresResponse |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Creare un archivio vettoriale
POST {endpoint}/openai/v1/vector_stores
Crea un vettoriale store.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . Applicabile solo se file_ids non è vuoto. |
No | |
| Descrizione | Stringa | Descrizione dell'archivio vettoriale. Può essere usato per descrivere lo scopo dell'archivio vettoriale. | No | |
| expires_after | OpenAI.VectorStoreExpirationAfter | La politica di scadenza per uno store vettoriale. | No | |
| file_ids | matrice di stringhe | Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search questo che può accedere ai file. |
No | |
| Metadati | OpenAI.Metadata o Null | No | ||
| Nome | Stringa | Il nome del negozio vettoriale. | No |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.VectorStoreObject |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Esempi
Esempio
POST {endpoint}/openai/v1/vector_stores
Ottenere l'archivio vettoriale
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}
Recupera un vettoriale store.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| vector_store_id | Percorso | Sì | Stringa | L'ID dello store vettoriale da recuperare. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.VectorStoreObject |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Modificare l'archivio vettoriale
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}
Modifica un vettoriale store.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| vector_store_id | Percorso | Sì | Stringa | L'ID del vettore memorizza da modificare. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| expires_after | OpenAI.VectorStoreExpirationAfter | La politica di scadenza per uno store vettoriale. | No | |
| Metadati | OpenAI.Metadata o Null | No | ||
| Nome | stringa o null | Il nome del negozio vettoriale. | No |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.VectorStoreObject |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Eliminare l'archivio vettoriale
DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}
Elimina uno store vettoriale.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| vector_store_id | Percorso | Sì | Stringa | L'ID dello store vettoriale da eliminare. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.DeleteVectorStoreResponse |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Creare un batch di file dell'archivio vettoriale
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches
Crea un batch di file vettoriali.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| vector_store_id | Percorso | Sì | Stringa | ID dell'archivio vettoriale per il quale creare un batch di file. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Attributi | OpenAI.VectorStoreFileAttributes o null | No | ||
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . Applicabile solo se file_ids non è vuoto. |
No | |
| file_ids | matrice di stringhe | Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search questo che può accedere ai file. Se attributes o chunking_strategy vengono forniti, verranno applicati a tutti i file nel batch. Si escludono a vicenda con files. |
No | |
| File | matrice di OpenAI.CreateVectorStoreFileRequest | Elenco di oggetti che includono un file_id segno più facoltativo attributes o chunking_strategy. Usare questa opzione quando è necessario eseguire l'override dei metadati per file specifici. Il valore globale attributes o chunking_strategy verrà ignorato e deve essere specificato per ogni file. Si escludono a vicenda con file_ids. |
No |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.VectorStoreFileBatchObject |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Ottenere un batch di file dell'archivio vettoriale
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}
Recupera un file vettoriale store batch.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| vector_store_id | Percorso | Sì | Stringa | L'ID dello store vettoriale a cui appartiene il file batch. |
| batch_id | Percorso | Sì | Stringa | L'ID del file batch che viene recuperato. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.VectorStoreFileBatchObject |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Annullare il batch di file dell'archivio vettoriale
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel
Annulla un lotto di file vettoriale. Questo tenta di annullare l'elaborazione dei file in questo lotto il prima possibile.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| vector_store_id | Percorso | Sì | Stringa | L'ID dello store vettoriale a cui appartiene il file batch. |
| batch_id | Percorso | Sì | Stringa | L'ID del file batch da annullare. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.VectorStoreFileBatchObject |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Elencare i file nel batch dell'archivio vettoriale
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/files
Restituisce un elenco di file di vettorio store in un batch.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| vector_store_id | Percorso | Sì | Stringa | L'ID dello store vettoriale a cui appartiene il file batch. |
| batch_id | Percorso | Sì | Stringa | L'ID del lotto di file a cui appartengono i file. |
| Limite | Query | No | Intero | Un limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20. |
| Ordine | Query | No | Stringa Valori possibili: asc, desc |
Ordina in base al created_at timestamp degli oggetti.
asc per l'ordine crescente edescper ordine decrescente. |
| Dopo | Query | No | Stringa | Un cursore per l'uso nella paginazione.
after è un ID oggetto che definisce il tuo posto nella lista.Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco. |
| Prima | Query | No | Stringa | Un cursore per l'uso nella paginazione.
before è un ID oggetto che definisce il tuo posto nella lista.Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco. |
| Filtro | Query | No | Stringa Valori possibili: in_progress, completed, failed, cancelled |
Filtra per stato del file. Uno di in_progress, completed, failed, cancelled. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ListVectorStoreFilesResponse |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Elencare i file dell'archivio vettoriale
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files
Restituisce un elenco di file di vettorio store.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| vector_store_id | Percorso | Sì | Stringa | L'ID della memoria vettoriale a cui appartengono i file. |
| Limite | Query | No | Intero | Un limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e il valore predefinito è 20. |
| Ordine | Query | No | Stringa Valori possibili: asc, desc |
Ordina in base al created_at timestamp degli oggetti.
asc per l'ordine crescente edescper ordine decrescente. |
| Dopo | Query | No | Stringa | Un cursore per l'uso nella paginazione.
after è un ID oggetto che definisce il tuo posto nella lista.Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il la chiamata successiva può includere after=obj_foo per recuperare la pagina successiva dell'elenco. |
| Prima | Query | No | Stringa | Un cursore per l'uso nella paginazione.
before è un ID oggetto che definisce il tuo posto nella lista.Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, il la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco. |
| Filtro | Query | No | Stringa Valori possibili: in_progress, completed, failed, cancelled |
Filtra per stato del file. Uno di in_progress, completed, failed, cancelled. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.ListVectorStoreFilesResponse |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Creare un file dell'archivio vettoriale
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files
Crea un file di vettorio di archiviazione allegando un file a un vettoriale store.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| vector_store_id | Percorso | Sì | Stringa | L'ID del vettore store per cui creare un File. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Attributi | OpenAI.VectorStoreFileAttributes o null | No | ||
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . Applicabile solo se file_ids non è vuoto. |
No | |
| File_id | Stringa | ID file che deve essere usato dall'archivio vettoriale. Utile per strumenti come file_search questo che può accedere ai file. |
Sì |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.VectorStoreFileObject |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Ottenere il file dell'archivio vettoriale
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}
Recupera un file di archivio vettoriale.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| vector_store_id | Percorso | Sì | Stringa | L'ID dello store vettoriale a cui appartiene il file. |
| File_id | Percorso | Sì | Stringa | L'ID del file che viene recuperato. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.VectorStoreFileObject |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Aggiornare gli attributi del file dell'archivio vettoriale
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| vector_store_id | Percorso | Sì | Stringa | |
| File_id | Percorso | Sì | Stringa |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Attributi | OpenAI.VectorStoreFileAttributes o null | Sì |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.VectorStoreFileObject |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Eliminare il file dell'archivio vettoriale
DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}
Elimina un file di vettorio store. Il file verrà rimosso dall'archivio vettoriale, ma il file stesso non verrà eliminato. Per eliminare il file, usare l'endpoint dell'endpoint del file di eliminazione.
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| vector_store_id | Percorso | Sì | Stringa | L'ID dello store vettoriale a cui appartiene il file. |
| File_id | Percorso | Sì | Stringa | L'ID del file da eliminare. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.DeleteVectorStoreFileResponse |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Recupero contenuto del file vettoriale di memorizzazione
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}/content
Recupero contenuto del file vettoriale di memorizzazione
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| vector_store_id | Percorso | Sì | Stringa | L'ID dello store vettoriale da cercare. |
| File_id | Percorso | Sì | Stringa | ID del file per il quale recuperare il contenuto. |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.VectorStoreSearchResultsPage |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Memoria vettoriale di ricerca
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/search
Memoria vettoriale di ricerca
Parametri URI
| Nome | Pollici | Obbligatorio | Digitare | Descrizione |
|---|---|---|---|---|
| Endpoint | Percorso | Sì | Stringa | Endpoint OpenAI di Azure supportati (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure. https://{nome-risorsa}.openai.azure.com |
| api-version | Query | No | Stringa | Versione esplicita dell'API Azure AI Foundry Models da usare per questa richiesta.v1 se non specificato diversamente. |
| vector_store_id | Percorso | Sì | Stringa | L'ID dello store vettoriale da cercare. |
Corpo della richiesta
Content-Type: application/json
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Filtri | OpenAI.ComparisonFilter o OpenAI.CompoundFilter | Un filtro da applicare in base agli attributi del file. | No | |
| max_num_results | Intero | Il numero massimo di risultati da restituire. Questo numero dovrebbe essere compreso tra 1 e 50 inclusi. Vincoli: min: 1, max: 50 |
No | 10 |
| Query | stringa o matrice di stringhe | Una stringa di query per una ricerca | Sì | |
| ranking_options | OpenAI.VectorStoreSearchRequestRankingOptions | No | ||
| └* ranker | Enum | Valori possibili: none, auto, default-2024-11-15 |
No | |
| └score_threshold | Numero | Vincoli: min: 0, max: 1 | No | |
| rewrite_query | Boolean | Se riscrivere la query in linguaggio naturale per la ricerca vettoriale. | No |
Risposte
Codice di stato: 200
Descrizione: la richiesta ha avuto esito positivo.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | OpenAI.VectorStoreSearchResultsPage |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Codice di stato: predefinito
Descrizione: risposta di errore imprevista.
| Tipo di contenuto | Digitare | Descrizione |
|---|---|---|
| application/json | Oggetto |
Intestazioni di risposta:
| Intestazione | Digitare | Descrizione |
|---|---|---|
| apim-request-id | Stringa | ID richiesta usato per la risoluzione dei problemi. |
Componenti
AudioSegment
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| avg_logprob | Numero | Probabilità di log media associata a questo segmento audio. | Sì | |
| compression_ratio | Numero | Rapporto di compressione di questo segmento audio. | Sì | |
| Fine | Numero | Ora in cui questo segmento è terminato rispetto all'inizio dell'audio tradotto. | Sì | |
| Id | Intero | Indice in base 0 di questo segmento all'interno di una traduzione. | Sì | |
| no_speech_prob | Numero | Probabilità di nessun rilevamento vocale all'interno di questo segmento audio. | Sì | |
| Cercare | Intero | Posizione di ricerca associata all'elaborazione di questo segmento audio. Le posizioni di ricerca vengono espresse come centesimi di secondi. Il modello può elaborare diversi segmenti da una singola posizione di ricerca, quindi mentre la posizione di ricerca non rappresenterà mai una volta successiva all'inizio del segmento, l'inizio del segmento può rappresentare un tempo significativamente successivo rispetto a posizione di ricerca associata del segmento. |
Sì | |
| Iniziare | Numero | Ora in cui questo segmento è iniziato rispetto all'inizio dell'audio tradotto. | Sì | |
| Temperatura | Numero | Punteggio di temperatura associato a questo segmento audio. | Sì | |
| Testo | Stringa | Testo tradotto che faceva parte di questo segmento audio. | Sì | |
| Token | matrice di numeri interi | ID token corrispondenti al testo tradotto in questo segmento audio. | Sì |
AudioTaskLabel
Definisce i descrittori possibili per le risposte alle operazioni audio disponibili.
| Proprietà | Valore |
|---|---|
| Descrizione | Definisce i descrittori possibili per le risposte alle operazioni audio disponibili. |
| Digitare | Stringa |
| Valori | transcribetranslate |
AudioTranslationSegment
Informazioni estese su un singolo segmento di dati audio tradotti. I segmenti rappresentano in genere circa 5-10 secondi di parlato. I limiti dei segmenti si verificano in genere tra parole, ma non necessariamente frasi.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| avg_logprob | Numero | Probabilità di log media associata a questo segmento audio. | Sì | |
| compression_ratio | Numero | Rapporto di compressione di questo segmento audio. | Sì | |
| Fine | Numero | Ora in cui questo segmento è terminato rispetto all'inizio dell'audio tradotto. | Sì | |
| Id | Intero | Indice in base 0 di questo segmento all'interno di una traduzione. | Sì | |
| no_speech_prob | Numero | Probabilità di nessun rilevamento vocale all'interno di questo segmento audio. | Sì | |
| Cercare | Intero | Posizione di ricerca associata all'elaborazione di questo segmento audio. Le posizioni di ricerca vengono espresse come centesimi di secondi. Il modello può elaborare diversi segmenti da una singola posizione di ricerca, quindi mentre la posizione di ricerca non rappresenterà mai una volta successiva all'inizio del segmento, l'inizio del segmento può rappresentare un tempo significativamente successivo rispetto a posizione di ricerca associata del segmento. |
Sì | |
| Iniziare | Numero | Ora in cui questo segmento è iniziato rispetto all'inizio dell'audio tradotto. | Sì | |
| Temperatura | Numero | Punteggio di temperatura associato a questo segmento audio. | Sì | |
| Testo | Stringa | Testo tradotto che faceva parte di questo segmento audio. | Sì | |
| Token | matrice di numeri interi | ID token corrispondenti al testo tradotto in questo segmento audio. | Sì |
AzureAIFoundryModelsApiVersion
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | v1preview |
AzureAudioTranscriptionResponse
Informazioni sui risultati per un'operazione che trascrive l'audio parlato in testo scritto.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Durata | Numero | Durata totale dell'audio elaborato per produrre informazioni di trascrizione a corredo. | No | |
| Lingua | Stringa | Lingua parlata rilevata nei dati audio trascritti. Questo valore viene espresso come codice di lingua ISO-639-1 di due lettere, ad esempio 'en' o 'fr'. |
No | |
| Segmenti | matrice di OpenAI.TranscriptionSegment | Raccolta di informazioni sulla tempistica, le probabilità e altri dettagli di ogni segmento audio elaborato. | No | |
| Attività | AudioTaskLabel | Definisce i descrittori possibili per le risposte alle operazioni audio disponibili. | No | |
| Testo | Stringa | Testo trascritto per i dati audio forniti. | Sì | |
| Parole | matrice di OpenAI.TranscriptionWord | Raccolta di informazioni sulla tempistica di ogni parola elaborata. | No |
AzureAudioTranslationResponse
Informazioni sui risultati per un'operazione che ha tradotto l'audio parlato in testo scritto.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Durata | Numero | Durata totale dell'audio elaborato per produrre informazioni di traduzione accompagnate. | No | |
| Lingua | Stringa | Lingua parlata rilevata nei dati audio tradotti. Questo valore viene espresso come codice di lingua ISO-639-1 di due lettere, ad esempio 'en' o 'fr'. |
No | |
| Segmenti | matrice di AudioTranslationSegment | Raccolta di informazioni sulla tempistica, le probabilità e altri dettagli di ogni segmento audio elaborato. | No | |
| Attività | AudioTaskLabel | Definisce i descrittori possibili per le risposte alle operazioni audio disponibili. | No | |
| Testo | Stringa | Testo tradotto per i dati audio forniti. | Sì |
AzureCompletionsSamplingParams
Parametri di campionamento per controllare il comportamento dei completamenti.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| max_completion_tokens | Intero | No | ||
| max_tokens | Intero | Il numero massimo di token nell'output generato. | No | |
| reasoning_effort | OpenAI.ReasoningEffort | Vincola lo sforzo sul ragionamento per ragionamento dei modelli. I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurrel'impegno di ragionamento può comportare risposte più veloci e meno token usati sul ragionamento in una risposta. - gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max. |
No | |
| response_format | OpenAI.ResponseFormatText o OpenAI.ResponseFormatJsonSchema o OpenAI.ResponseFormatJsonObject | No | ||
| Seme | Intero | Un valore di inizializzazione inizializza la casualità durante il campionamento. | No | 42 |
| Temperatura | Numero | Una temperatura più alta aumenta la casualità nelle uscite. | No | 1 |
| Strumenti | matrice di OpenAI.ChatCompletionTool | No | ||
| top_p | Numero | Un'alternativa alla temperatura per il campionamento del nucleo; La versione 1.0 include tutti i gettoni. | No | 1 |
AzureContentFilterBlocklistIdResult
Elemento del risultato del filtro contenuto che associa un ID elenco di blocchi personalizzato esistente a un valore che indica se l'elenco di blocchi corrispondente ha causato il filtro del contenuto.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Filtrata | Boolean | Indica se l'elenco di blocchi associato ha causato il filtro del contenuto. | Sì | |
| Id | Stringa | ID dell'elenco di blocchi personalizzato associato allo stato filtrato. | Sì |
AzureContentFilterBlocklistResult
Raccolta di risultati di filtro true/false per gli elenchi di blocchi personalizzati configurati.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dettagli | matrice di oggetti | Coppie di ID elenco di blocchi singoli e se hanno generato un'azione di filtro. | No | |
| Filtrata | Boolean | Valore che indica se uno degli elenchi di blocchi dettagliati ha generato un'azione di filtro. | Sì |
AzureContentFilterCompletionTextSpan
Rappresentazione di un intervallo di testo di completamento usato dai risultati del filtro del contenuto OpenAI di Azure.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| completion_end_offset | Intero | Offset rispetto al primo punto codice UTF32 che viene escluso dalla campata. Questo campo è sempre uguale a completion_start_offset per le campate vuote. Questo campo è sempre più grande di completion_start_offset per le campate non vuote. | Sì | |
| completion_start_offset | Intero | Offset rispetto al punto di codice UTF32 che inizia la campata. | Sì |
AzureContentFilterCompletionTextSpanDetectionResult
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dettagli | matrice di AzureContentFilterCompletionTextSpan | Informazioni dettagliate sugli intervalli di testo di completamento rilevati. | Sì | |
| Rilevato | Boolean | Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto. | Sì | |
| Filtrata | Boolean | Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto. | Sì |
AzureContentFilterCustomTopicIdResult
Elemento del risultato del filtro contenuto che associa un ID argomento personalizzato esistente a un valore che indica se l'argomento corrispondente ha causato o meno il rilevamento del contenuto.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Rilevato | Boolean | Indica se l'argomento personalizzato associato ha generato il rilevamento del contenuto. | Sì | |
| Id | Stringa | ID dell'argomento personalizzato associato allo stato rilevato. | Sì |
AzureContentFilterCustomTopicResult
Raccolta di risultati di filtro true/false per gli argomenti personalizzati configurati.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dettagli | matrice di oggetti | Coppie di ID singoli argomenti e se vengono rilevate. | No | |
| Filtrata | Boolean | Valore che indica se uno degli argomenti dettagliati ha generato un'azione di filtro. | Sì |
AzureContentFilterDetectionResult
Elemento del risultato del filtro contenuto con etichetta che indica se il contenuto è stato rilevato e se il contenuto è stato filtrato.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Rilevato | Boolean | Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto. | Sì | |
| Filtrata | Boolean | Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto. | Sì |
AzureContentFilterForResponsesAPI
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Bloccato | Boolean | Indicare se la risposta è bloccata. | Sì | |
| content_filter_offsets | AzureContentFilterResultOffsets | Sì | ||
| content_filter_results | AzureContentFilterResultsForResponsesAPI | Sì | ||
| └custom_blocklists | AzureContentFilterBlocklistResult | Raccolta di risultati di filtro binario per gli elenchi di blocchi personalizzati configurati. | No | |
| └custom_topics | AzureContentFilterCustomTopicResult | Raccolta di risultati di filtro binario per gli argomenti personalizzati configurati. | No | |
| Errore └* | Oggetto | Se presente, vengono fornite informazioni dettagliate su un errore che impediva il completamento della valutazione del filtro del contenuto. | No | |
| Codice └++ | Intero | Codice distinto e leggibile dal computer associato all'errore. | Sì | |
| └* messaggio | Stringa | Messaggio leggibile associato all'errore. | Sì | |
| └> odio | AzureContentFilterSeverityResult | Categoria di filtro contenuto che può fare riferimento a qualsiasi contenuto che attacca o usa pejorative o discriminatorio lingua con riferimento a una persona o a un gruppo di identità in base a determinati attributi di differenziazione di questi gruppi incluso, ma non limitato alla razza, etnia, nazionalità, identità di genere ed espressione, orientamento sessuale, religione, stato di immigrazione, stato abilità, aspetto personale, e dimensioni del corpo. |
No | |
| └indirect_attack | AzureContentFilterDetectionResult | Risultato del rilevamento che descrive gli attacchi ai sistemi basati su modelli di intelligenza artificiale generativi che possono verificarsi ogni volta un'applicazione elabora le informazioni che non sono stati creati direttamente dallo sviluppatore dell'applicazione o l'utente. |
No | |
| └* jailbreak | AzureContentFilterDetectionResult | Risultato del rilevamento che descrive gli attacchi di tipo prompt degli utenti, in cui gli utenti malintenzionati sfruttano deliberatamente vulnerabilità di sistema per l'annullamento di comportamenti non autorizzati da LLM. Ciò potrebbe causare contenuti inappropriati generazione o violazioni delle restrizioni imposte dal sistema. |
Sì | |
| └personally_identifiable_information | AzureContentFilterPersonallyIdentifiableInformationResult | Risultato del rilevamento che descrive le corrispondenze con informazioni personali con sottocategorie configurabili. | No | |
| └* volgarità | AzureContentFilterDetectionResult | Risultato di rilevamento che identifica se il linguaggio grezzo, volgare o in altro modo obiezione è presente nel Contenuto. |
No | |
| └protected_material_code | Oggetto | Risultato del rilevamento che descrive una corrispondenza rispetto al codice concesso in licenza o ad altri materiali di origine protetti. | No | |
| Citazione └* | Oggetto | Se disponibile, i dettagli della citazione che descrivono la licenza associata e la relativa posizione. | No | |
| └* URL | Stringa | URL associato alla licenza. | No | |
| └* licenza | Stringa | Nome o identificatore della licenza associata al rilevamento. | No | |
| └> rilevato | Boolean | Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto. | Sì | |
| └* filtrato | Boolean | Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| └protected_material_text | AzureContentFilterDetectionResult | Risultato del rilevamento che descrive una corrispondenza con il testo protetto da copyright o altro stato. | No | |
| └self_harm | AzureContentFilterSeverityResult | Categoria di filtro del contenuto che descrive il linguaggio correlato alle azioni fisiche destinate a ferire intenzionalmente, ferire, danneggiare il corpo o uccidersi. |
No | |
| └* sessuale | AzureContentFilterSeverityResult | Una categoria di filtro del contenuto per il linguaggio correlato a organi anatomici e genitali, relazioni romantiche, atti ritratto in termini erotici o affettuosi, gravidanza, atti sessuali fisici, compresi quelli rappresentati come un aggressione o atto violento sessuale forzato contro la volontà, la prostituzione, la pornografia e l'abuso. |
No | |
| └task_adherence | AzureContentFilterDetectionResult | Risultato del rilevamento che indica se il flusso di esecuzione continua a mantenere il piano. | Sì | |
| └ungrounded_material | AzureContentFilterCompletionTextSpanDetectionResult | No | ||
| └* violenza | AzureContentFilterSeverityResult | Categoria di filtro del contenuto per la lingua correlata alle azioni fisiche destinate a ferire, ferire, danneggiare o uccidere qualcuno o qualcosa; descrive armi, armi e entità correlate, ad esempio fabbricazioni, associazioni, legislazione, e così via. |
No | |
| source_type | Stringa | Nome del tipo di origine del messaggio. | Sì |
AzureContentFilterHarmExtensions
Estensioni per categorie dannose, fornendo opzioni di configurazione aggiuntive.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| pii_sub_categories | matrice di AzurePiiSubCategory | Configurazione per PIIHarmSubCategory.Configuration for PIIHarmSubCategory(s). | No |
AzureContentFilterImagePromptResults
Risultato di un filtro contenuto per il contenuto della richiesta di input di un'operazione di generazione di immagini.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| custom_blocklists | AzureContentFilterBlocklistResult | Raccolta di risultati di filtro true/false per gli elenchi di blocchi personalizzati configurati. | No | |
| └* dettagli | matrice di oggetti | Coppie di ID elenco di blocchi singoli e se hanno generato un'azione di filtro. | No | |
| └* filtrato | Boolean | Valore che indica se l'elenco di blocchi ha generato un'azione di filtro. | Sì | |
| └* id | Stringa | ID dell'elenco di blocchi personalizzato valutato. | Sì | |
| └* filtrato | Boolean | Valore che indica se uno degli elenchi di blocchi dettagliati ha generato un'azione di filtro. | Sì | |
| custom_topics | AzureContentFilterCustomTopicResult | Raccolta di risultati di filtro true/false per gli argomenti personalizzati configurati. | No | |
| └* dettagli | matrice di oggetti | Coppie di ID singoli argomenti e se vengono rilevate. | No | |
| └> rilevato | Boolean | Valore che indica se l'argomento viene rilevato. | Sì | |
| └* id | Stringa | ID dell'argomento personalizzato valutato. | Sì | |
| └* filtrato | Boolean | Valore che indica se uno degli argomenti dettagliati ha generato un'azione di filtro. | Sì | |
| Odio | AzureContentFilterSeverityResult | Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria. |
No | |
| └* filtrato | Boolean | Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| └> gravità | Enum | Gravità etichettata del contenuto. Valori possibili: safe, low, medium, high |
Sì | |
| Jailbreak | AzureContentFilterDetectionResult | Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era Filtrata. |
Sì | |
| └> rilevato | Boolean | Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto. | Sì | |
| └* filtrato | Boolean | Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| volgarità | AzureContentFilterDetectionResult | Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era Filtrata. |
No | |
| └> rilevato | Boolean | Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto. | Sì | |
| └* filtrato | Boolean | Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| self_harm | AzureContentFilterSeverityResult | Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria. |
No | |
| └* filtrato | Boolean | Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| └> gravità | Enum | Gravità etichettata del contenuto. Valori possibili: safe, low, medium, high |
Sì | |
| Sessuale | AzureContentFilterSeverityResult | Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria. |
No | |
| └* filtrato | Boolean | Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| └> gravità | Enum | Gravità etichettata del contenuto. Valori possibili: safe, low, medium, high |
Sì | |
| Violenza | AzureContentFilterSeverityResult | Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria. |
No | |
| └* filtrato | Boolean | Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| └> gravità | Enum | Gravità etichettata del contenuto. Valori possibili: safe, low, medium, high |
Sì |
AzureContentFilterImageResponseResults
Risultato di un filtro contenuto per il contenuto della risposta di output di un'operazione di generazione di immagini.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Odio | AzureContentFilterSeverityResult | Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria. |
No | |
| └* filtrato | Boolean | Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| └> gravità | Enum | Gravità etichettata del contenuto. Valori possibili: safe, low, medium, high |
Sì | |
| self_harm | AzureContentFilterSeverityResult | Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria. |
No | |
| └* filtrato | Boolean | Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| └> gravità | Enum | Gravità etichettata del contenuto. Valori possibili: safe, low, medium, high |
Sì | |
| Sessuale | AzureContentFilterSeverityResult | Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria. |
No | |
| └* filtrato | Boolean | Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| └> gravità | Enum | Gravità etichettata del contenuto. Valori possibili: safe, low, medium, high |
Sì | |
| Violenza | AzureContentFilterSeverityResult | Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria. |
No | |
| └* filtrato | Boolean | Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| └> gravità | Enum | Gravità etichettata del contenuto. Valori possibili: safe, low, medium, high |
Sì |
AzureContentFilterPersonallyIdentifiableInformationResult
Risultato del rilevamento del filtro del contenuto per informazioni personali che includono estensioni dannose.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Rilevato | Boolean | Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto. | Sì | |
| Filtrata | Boolean | Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| redacted_text | Stringa | Testo scritto con informazioni personali rimosse o mascherate. | No | |
| sub_categories | matrice di AzurePiiSubCategoryResult | Risultati dettagliati per singoli PIIHarmSubCategory. | No |
AzureContentFilterResultForChoice
Risultato di un filtro contenuto per un singolo elemento di risposta prodotto da un sistema di intelligenza artificiale generativo.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| custom_blocklists | AzureContentFilterBlocklistResult | Raccolta di risultati di filtro true/false per gli elenchi di blocchi personalizzati configurati. | No | |
| └* dettagli | matrice di oggetti | Coppie di ID elenco di blocchi singoli e se hanno generato un'azione di filtro. | No | |
| └* filtrato | Boolean | Valore che indica se l'elenco di blocchi ha generato un'azione di filtro. | Sì | |
| └* id | Stringa | ID dell'elenco di blocchi personalizzato valutato. | Sì | |
| └* filtrato | Boolean | Valore che indica se uno degli elenchi di blocchi dettagliati ha generato un'azione di filtro. | Sì | |
| custom_topics | AzureContentFilterCustomTopicResult | Raccolta di risultati di filtro true/false per gli argomenti personalizzati configurati. | No | |
| └* dettagli | matrice di oggetti | Coppie di ID singoli argomenti e se vengono rilevate. | No | |
| └> rilevato | Boolean | Valore che indica se l'argomento viene rilevato. | Sì | |
| └* id | Stringa | ID dell'argomento personalizzato valutato. | Sì | |
| └* filtrato | Boolean | Valore che indica se uno degli argomenti dettagliati ha generato un'azione di filtro. | Sì | |
| Errore | Oggetto | Se presente, vengono fornite informazioni dettagliate su un errore che impediva il completamento della valutazione del filtro del contenuto. | No | |
| Codice └++ | Intero | Codice distinto e leggibile dal computer associato all'errore. | Sì | |
| └* messaggio | Stringa | Messaggio leggibile associato all'errore. | Sì | |
| Odio | AzureContentFilterSeverityResult | Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria. |
No | |
| └* filtrato | Boolean | Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| └> gravità | Enum | Gravità etichettata del contenuto. Valori possibili: safe, low, medium, high |
Sì | |
| personally_identifiable_information | AzureContentFilterPersonallyIdentifiableInformationResult | Risultato del rilevamento del filtro del contenuto per informazioni personali che includono estensioni dannose. | No | |
| └redacted_text | Stringa | Testo scritto con informazioni personali rimosse o mascherate. | No | |
| └sub_categories | matrice di AzurePiiSubCategoryResult | Risultati dettagliati per singoli PIIHarmSubCategory. | No | |
| volgarità | AzureContentFilterDetectionResult | Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era Filtrata. |
No | |
| └> rilevato | Boolean | Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto. | Sì | |
| └* filtrato | Boolean | Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| protected_material_code | Oggetto | Risultato del rilevamento che descrive una corrispondenza rispetto al codice concesso in licenza o ad altri materiali di origine protetti. | No | |
| Citazione └* | Oggetto | Se disponibile, i dettagli della citazione che descrivono la licenza associata e la relativa posizione. | No | |
| └* URL | Stringa | URL associato alla licenza. | No | |
| └* licenza | Stringa | Nome o identificatore della licenza associata al rilevamento. | No | |
| └> rilevato | Boolean | Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto. | Sì | |
| └* filtrato | Boolean | Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| protected_material_text | AzureContentFilterDetectionResult | Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era Filtrata. |
No | |
| └> rilevato | Boolean | Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto. | Sì | |
| └* filtrato | Boolean | Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| self_harm | AzureContentFilterSeverityResult | Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria. |
No | |
| └* filtrato | Boolean | Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| └> gravità | Enum | Gravità etichettata del contenuto. Valori possibili: safe, low, medium, high |
Sì | |
| Sessuale | AzureContentFilterSeverityResult | Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria. |
No | |
| └* filtrato | Boolean | Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| └> gravità | Enum | Gravità etichettata del contenuto. Valori possibili: safe, low, medium, high |
Sì | |
| ungrounded_material | AzureContentFilterCompletionTextSpanDetectionResult | No | ||
| Violenza | AzureContentFilterSeverityResult | Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria. |
No | |
| └* filtrato | Boolean | Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| └> gravità | Enum | Gravità etichettata del contenuto. Valori possibili: safe, low, medium, high |
Sì |
AzureContentFilterResultForPrompt
Risultato di un filtro contenuto associato a un singolo elemento del prompt di input in un sistema di intelligenza artificiale generativo.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| content_filter_results | Oggetto | Dettagli della categoria del filtro contenuto per il risultato. | No | |
| └custom_blocklists | AzureContentFilterBlocklistResult | Raccolta di risultati di filtro true/false per gli elenchi di blocchi personalizzati configurati. | No | |
| └* dettagli | matrice di oggetti | Coppie di ID elenco di blocchi singoli e se hanno generato un'azione di filtro. | No | |
| └* filtrato | Boolean | Valore che indica se l'elenco di blocchi ha generato un'azione di filtro. | Sì | |
| └* id | Stringa | ID dell'elenco di blocchi personalizzato valutato. | Sì | |
| └* filtrato | Boolean | Valore che indica se uno degli elenchi di blocchi dettagliati ha generato un'azione di filtro. | Sì | |
| └custom_topics | AzureContentFilterCustomTopicResult | Raccolta di risultati di filtro true/false per gli argomenti personalizzati configurati. | No | |
| └* dettagli | matrice di oggetti | Coppie di ID singoli argomenti e se vengono rilevate. | No | |
| └> rilevato | Boolean | Valore che indica se l'argomento viene rilevato. | Sì | |
| └* id | Stringa | ID dell'argomento personalizzato valutato. | Sì | |
| └* filtrato | Boolean | Valore che indica se uno degli argomenti dettagliati ha generato un'azione di filtro. | Sì | |
| Errore └* | Oggetto | Se presente, vengono fornite informazioni dettagliate su un errore che impediva il completamento della valutazione del filtro del contenuto. | No | |
| Codice └++ | Intero | Codice distinto e leggibile dal computer associato all'errore. | Sì | |
| └* messaggio | Stringa | Messaggio leggibile associato all'errore. | Sì | |
| └> odio | AzureContentFilterSeverityResult | Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria. |
No | |
| └* filtrato | Boolean | Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| └> gravità | Enum | Gravità etichettata del contenuto. Valori possibili: safe, low, medium, high |
Sì | |
| └indirect_attack | AzureContentFilterDetectionResult | Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era Filtrata. |
Sì | |
| └> rilevato | Boolean | Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto. | Sì | |
| └* filtrato | Boolean | Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| └* jailbreak | AzureContentFilterDetectionResult | Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era Filtrata. |
Sì | |
| └> rilevato | Boolean | Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto. | Sì | |
| └* filtrato | Boolean | Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| └* volgarità | AzureContentFilterDetectionResult | Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era Filtrata. |
No | |
| └> rilevato | Boolean | Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto. | Sì | |
| └* filtrato | Boolean | Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| └self_harm | AzureContentFilterSeverityResult | Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria. |
No | |
| └* filtrato | Boolean | Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| └> gravità | Enum | Gravità etichettata del contenuto. Valori possibili: safe, low, medium, high |
Sì | |
| └* sessuale | AzureContentFilterSeverityResult | Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria. |
No | |
| └* filtrato | Boolean | Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| └> gravità | Enum | Gravità etichettata del contenuto. Valori possibili: safe, low, medium, high |
Sì | |
| └* violenza | AzureContentFilterSeverityResult | Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria. |
No | |
| └* filtrato | Boolean | Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| └> gravità | Enum | Gravità etichettata del contenuto. Valori possibili: safe, low, medium, high |
Sì | |
| prompt_index | Intero | Indice del prompt di input associato alle categorie di risultati del filtro contenuto associato. | No |
AzureContentFilterResultOffsets
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| check_offset | Intero | Sì | ||
| end_offset | Intero | Sì | ||
| start_offset | Intero | Sì |
AzureContentFilterResultsForResponsesAPI
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| custom_blocklists | AzureContentFilterBlocklistResult | Raccolta di risultati di filtro true/false per gli elenchi di blocchi personalizzati configurati. | No | |
| └* dettagli | matrice di oggetti | Coppie di ID elenco di blocchi singoli e se hanno generato un'azione di filtro. | No | |
| └* filtrato | Boolean | Valore che indica se l'elenco di blocchi ha generato un'azione di filtro. | Sì | |
| └* id | Stringa | ID dell'elenco di blocchi personalizzato valutato. | Sì | |
| └* filtrato | Boolean | Valore che indica se uno degli elenchi di blocchi dettagliati ha generato un'azione di filtro. | Sì | |
| custom_topics | AzureContentFilterCustomTopicResult | Raccolta di risultati di filtro true/false per gli argomenti personalizzati configurati. | No | |
| └* dettagli | matrice di oggetti | Coppie di ID singoli argomenti e se vengono rilevate. | No | |
| └> rilevato | Boolean | Valore che indica se l'argomento viene rilevato. | Sì | |
| └* id | Stringa | ID dell'argomento personalizzato valutato. | Sì | |
| └* filtrato | Boolean | Valore che indica se uno degli argomenti dettagliati ha generato un'azione di filtro. | Sì | |
| Errore | Oggetto | Se presente, vengono fornite informazioni dettagliate su un errore che impediva il completamento della valutazione del filtro del contenuto. | No | |
| Codice └++ | Intero | Codice distinto e leggibile dal computer associato all'errore. | Sì | |
| └* messaggio | Stringa | Messaggio leggibile associato all'errore. | Sì | |
| Odio | AzureContentFilterSeverityResult | Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria. |
No | |
| └* filtrato | Boolean | Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| └> gravità | Enum | Gravità etichettata del contenuto. Valori possibili: safe, low, medium, high |
Sì | |
| indirect_attack | AzureContentFilterDetectionResult | Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era Filtrata. |
No | |
| └> rilevato | Boolean | Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto. | Sì | |
| └* filtrato | Boolean | Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| Jailbreak | AzureContentFilterDetectionResult | Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era Filtrata. |
Sì | |
| └> rilevato | Boolean | Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto. | Sì | |
| └* filtrato | Boolean | Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| personally_identifiable_information | AzureContentFilterPersonallyIdentifiableInformationResult | Risultato del rilevamento del filtro del contenuto per informazioni personali che includono estensioni dannose. | No | |
| └redacted_text | Stringa | Testo scritto con informazioni personali rimosse o mascherate. | No | |
| └sub_categories | matrice di AzurePiiSubCategoryResult | Risultati dettagliati per singoli PIIHarmSubCategory. | No | |
| volgarità | AzureContentFilterDetectionResult | Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era Filtrata. |
No | |
| └> rilevato | Boolean | Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto. | Sì | |
| └* filtrato | Boolean | Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| protected_material_code | Oggetto | Risultato del rilevamento che descrive una corrispondenza rispetto al codice concesso in licenza o ad altri materiali di origine protetti. | No | |
| Citazione └* | Oggetto | Se disponibile, i dettagli della citazione che descrivono la licenza associata e la relativa posizione. | No | |
| └* URL | Stringa | URL associato alla licenza. | No | |
| └* licenza | Stringa | Nome o identificatore della licenza associata al rilevamento. | No | |
| └> rilevato | Boolean | Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto. | Sì | |
| └* filtrato | Boolean | Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| protected_material_text | AzureContentFilterDetectionResult | Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era Filtrata. |
No | |
| └> rilevato | Boolean | Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto. | Sì | |
| └* filtrato | Boolean | Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| self_harm | AzureContentFilterSeverityResult | Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria. |
No | |
| └* filtrato | Boolean | Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| └> gravità | Enum | Gravità etichettata del contenuto. Valori possibili: safe, low, medium, high |
Sì | |
| Sessuale | AzureContentFilterSeverityResult | Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria. |
No | |
| └* filtrato | Boolean | Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| └> gravità | Enum | Gravità etichettata del contenuto. Valori possibili: safe, low, medium, high |
Sì | |
| task_adherence | AzureContentFilterDetectionResult | Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se il contenuto era Filtrata. |
Sì | |
| └> rilevato | Boolean | Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto. | Sì | |
| └* filtrato | Boolean | Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| ungrounded_material | AzureContentFilterCompletionTextSpanDetectionResult | No | ||
| Violenza | AzureContentFilterSeverityResult | Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria. |
No | |
| └* filtrato | Boolean | Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| └> gravità | Enum | Gravità etichettata del contenuto. Valori possibili: safe, low, medium, high |
Sì |
AzureContentFilterSeverityResult
Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato filtrato e quale livello di gravità qualitativo del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Filtrata | Boolean | Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. | Sì | |
| Gravità | Enum | Gravità etichettata del contenuto. Valori possibili: safe, low, medium, high |
Sì |
AzureFileExpiryAnchor
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | created_at |
AzureFineTuneReinforcementMethod
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Selezionatore | OpenAI.GraderStringCheck o OpenAI.GraderTextSimilarity o OpenAI.GraderScoreModel o OpenAI.GraderMulti o GraderEndpoint | Sì | ||
| iperparametri | OpenAI.FineTuneReinforcementHyperparameters | Iperparametri usati per il processo di ottimizzazione dell'ottimizzazione per rinforzo. | No | |
| response_format | ResponseFormatJSONSchemaRequest | No | ||
| └json_schema | Oggetto | Schema JSON per il formato di risposta | Sì | |
| Tipo └* | Enum | Tipo di formato di risposta Valori possibili: json_schema |
Sì |
AzurePiiSubCategory
Configurazione per singole estensioni PIIHarmSubCategory all'interno del framework delle estensioni dannose.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Rilevare | Boolean | Indica se il rilevamento è abilitato per questa sottocategoria. | Sì | |
| Filtro | Boolean | Indica se il contenuto contenente questa sottocategoria deve essere bloccato. | Sì | |
| redact | Boolean | Indica se il contenuto contenente questa sottocategoria deve essere redatto. | Sì | |
| sub_category | Stringa | PIIHarmSubCategory configurato. | Sì |
AzurePiiSubCategoryResult
Dettagli dei risultati per singoli PIIHarmSubCategory.Result details for individual PIIHarmSubCategory(s).
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Rilevato | Boolean | Indica se la sottocategoria contenuto etichettata è stata rilevata nel contenuto. | Sì | |
| Filtrata | Boolean | Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto per questa sottocategoria. | Sì | |
| Redatto | Boolean | Indica se il contenuto è stato redatto per questa sottocategoria. | Sì | |
| sub_category | Stringa | PIIHarmSubCategory valutato. | Sì |
AzureResponsesSamplingParams
Parametri di campionamento per controllare il comportamento delle risposte.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| max_tokens | Intero | Il numero massimo di token nell'output generato. | No | |
| reasoning_effort | OpenAI.ReasoningEffort | Vincola lo sforzo sul ragionamento per ragionamento dei modelli. I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurrel'impegno di ragionamento può comportare risposte più veloci e meno token usati sul ragionamento in una risposta. - gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max. |
No | |
| Seme | Intero | Un valore di inizializzazione inizializza la casualità durante il campionamento. | No | 42 |
| Temperatura | Numero | Una temperatura più alta aumenta la casualità nelle uscite. | No | 1 |
| Testo | OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText | No | ||
| Strumenti | matrice di OpenAI.Tool | No | ||
| top_p | Numero | Un'alternativa alla temperatura per il campionamento del nucleo; La versione 1.0 include tutti i gettoni. | No | 1 |
AzureUserSecurityContext
Il contesto di sicurezza utente contiene diversi parametri che descrivono l'applicazione stessa e l'utente finale che interagisce con l'applicazione. Questi settori aiutano i team delle operazioni di sicurezza a indagare e mitigare gli incidenti di sicurezza fornendo un approccio completo alla protezione delle applicazioni IA. Altre informazioni sulla protezione delle applicazioni di intelligenza artificiale con Microsoft Defender per il cloud.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| application_name | Stringa | Il nome della domanda. Informazioni personali sensibili non dovrebbero essere incluse in questo campo. | No | |
| end_user_id | Stringa | Questo identificatore è l'ID utente microsoft Entra (in precedenza Azure Active Directory) usato per autenticare gli utenti finali all'interno dell'applicazione di intelligenza artificiale generativa. Informazioni personali sensibili non dovrebbero essere incluse in questo campo. | No | |
| end_user_tenant_id | Stringa | ID tenant di Microsoft 365 a cui appartiene l'utente finale. È necessario quando l'applicazione di intelligenza artificiale generativa è multi-tenant. | No | |
| source_ip | Stringa | Acquisisce l'indirizzo IP del client originale. | No |
CopiedAccountDetails
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| destinationResourceId | Stringa | ID della risorsa di destinazione in cui è stato copiato il modello. | Sì | |
| Regione | Stringa | Area in cui è stato copiato il modello. | Sì | |
| Stato | Enum | Stato dell'operazione di copia. Valori possibili: Completed, Failed, InProgress |
Sì |
CopyModelRequest
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| destinationResourceId | Stringa | ID della risorsa di destinazione da copiare. | Sì | |
| Regione | Stringa | Area in cui copiare il modello. | Sì |
CopyModelResponse
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| checkpointedModelName | Stringa | ID del modello copiato. | Sì | |
| copiedAccountDetails | matrice di CopiedAccountDetails | ID dell'ID risorsa di destinazione in cui è stato copiato | Sì | |
| fineTuningJobId | Stringa | ID del processo di ottimizzazione da cui è stato copiato il checkpoint. | Sì |
CreateVideoBody
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Modello | Stringa | Nome della distribuzione da usare per questa richiesta. | Sì | |
| prompt | Stringa | Richiesta di testo che descrive il video da generare. Vincoli: minLength: 1 |
Sì | |
| Secondi | VideoSecondi | Durate di clip supportate, misurate in secondi. | No | 4 |
| Dimensione | VideoSize | Dimensioni di output formattate come {width}x{height}. |
No | 720x1280 |
CreateVideoBodyWithInputReference
Proprietà di una richiesta di processo di generazione video con file multimediali.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| input_reference | Oggetto | Informazioni di riferimento facoltative sulle immagini che guidano la generazione. | Sì | |
| Modello | Oggetto | Nome della distribuzione da usare per questa richiesta. | Sì | |
| prompt | Oggetto | Richiesta di testo che descrive il video da generare. | Sì | |
| Secondi | Oggetto | Durata clip in secondi. Il valore predefinito è 4 secondi. | No | |
| Dimensione | Oggetto | Risoluzione di output formattata come larghezza x altezza. Il valore predefinito è 720x1280. | No |
CreateVideoRemixBody
Parametri per il remixing di un video generato esistente.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| prompt | Stringa | Richiesta di testo aggiornata che indirizza la generazione del remix. Vincoli: minLength: 1 |
Sì |
DeletedVideoResource
Payload di conferma restituito dopo l'eliminazione di un video.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Eliminato | Boolean | Indica che la risorsa video è stata eliminata. | Sì | Vero |
| Id | Stringa | Identificatore del video eliminato. | Sì | |
| Oggetto | Stringa | Tipo di oggetto che segnala la risposta di eliminazione. | Sì | video.deleted |
Errore
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Codice | Stringa | Sì | ||
| Messaggio | Stringa | Sì |
EvalGraderEndpoint
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Intestazioni | oggetto o null | Intestazioni HTTP facoltative da includere nelle richieste all'endpoint | No | |
| Nome | Stringa | Nome del grader | Sì | |
| pass_threshold | number o null | Punteggio soglia facoltativo al di sopra del quale il voto viene considerato superato Se non specificato, tutti i punteggi vengono considerati validi |
No | |
| rate_limit | integer o null | Limite di frequenza facoltativo per le richieste al secondo all'endpoint Deve essere un numero intero positivo |
No | |
| digitare | Enum | Valori possibili: endpoint |
Sì | |
| Url | Stringa | URL HTTPS dell'endpoint da chiamare per la classificazione Vincoli: modello: ^https:// |
Sì |
GraderEndpoint
Configurazione dell'endpoint grader per la valutazione esterna dell'endpoint HTTP
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Intestazioni | oggetto o null | Intestazioni HTTP facoltative da includere nelle richieste all'endpoint | No | |
| Nome | Stringa | Nome del grader | Sì | |
| pass_threshold | number o null | Punteggio soglia facoltativo al di sopra del quale il voto viene considerato superato Se non specificato, tutti i punteggi vengono considerati validi |
No | |
| rate_limit | integer o null | Limite di frequenza facoltativo per le richieste al secondo all'endpoint Deve essere un numero intero positivo |
No | |
| digitare | Enum | Valori possibili: endpoint |
Sì | |
| Url | Stringa | URL HTTPS dell'endpoint da chiamare per la classificazione Vincoli: modello: ^https:// |
Sì |
OpenAI.Annotation
Annotazione applicabile a un intervallo di testo di output.
Discriminare per OpenAI.Annotation
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
file_citation |
OpenAI.FileCitationBody |
url_citation |
OpenAI.UrlCitationBody |
container_file_citation |
OpenAI.ContainerFileCitationBody |
file_path |
OpenAI.FilePath |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.AnnotationType | Sì |
OpenAI.AnnotationType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | file_citationurl_citationcontainer_file_citationfile_path |
OpenAI.ApplyPatchCallOutputStatus
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | completedfailed |
OpenAI.ApplyPatchCallStatus
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | in_progresscompleted |
OpenAI.ApplyPatchCreateFileOperation
Istruzioni che descrivono come creare un file tramite lo strumento apply_patch.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Diff | Stringa | Diff da applicare. | Sì | |
| Percorso | Stringa | Percorso del file da creare. | Sì | |
| digitare | Enum | Creare un nuovo file con la diff fornita. Valori possibili: create_file |
Sì |
OpenAI.ApplyPatchDeleteFileOperation
Istruzioni che descrivono come eliminare un file tramite lo strumento apply_patch.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Percorso | Stringa | Percorso del file da eliminare. | Sì | |
| digitare | Enum | Eliminare il file specificato. Valori possibili: delete_file |
Sì |
OpenAI.ApplyPatchFileOperation
Una delle operazioni di create_file, delete_file o update_file applicate tramite apply_patch.
Discriminare per OpenAI.ApplyPatchFileOperation
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
create_file |
OpenAI.ApplyPatchCreateFileOperation |
delete_file |
OpenAI.ApplyPatchDeleteFileOperation |
update_file |
OpenAI.ApplyPatchUpdateFileOperation |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.ApplyPatchFileOperationType | Sì |
OpenAI.ApplyPatchFileOperationType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | create_filedelete_fileupdate_file |
OpenAI.ApplyPatchToolParam
Consente all'assistente di creare, eliminare o aggiornare i file usando differenze unificate.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Il tipo di attrezzo. Sempre apply_patch.Valori possibili: apply_patch |
Sì |
OpenAI.ApplyPatchUpdateFileOperation
Istruzioni che descrivono come aggiornare un file tramite lo strumento apply_patch.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Diff | Stringa | Diff da applicare. | Sì | |
| Percorso | Stringa | Percorso del file da aggiornare. | Sì | |
| digitare | Enum | Aggiornare un file esistente con la diff fornita. Valori possibili: update_file |
Sì |
OpenAI.ApproximateLocation
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Città | stringa o null | No | ||
| Paese | stringa o null | No | ||
| Regione | stringa o null | No | ||
| Fuso orario | stringa o null | No | ||
| digitare | Enum | Tipo di approssimazione della posizione. Sempre approximate.Valori possibili: approximate |
Sì |
OpenAI.AssistantTool
Discriminare per OpenAI.AssistantTool
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
code_interpreter |
OpenAI.AssistantToolsCode |
file_search |
OpenAI.AssistantToolsFileSearch |
function |
OpenAI.AssistantToolsFunction |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.AssistantToolType | Sì |
OpenAI.AssistantToolType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | code_interpreterfile_searchfunction |
OpenAI.AssistantToolsCode
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Il tipo di strumento definito: code_interpreterValori possibili: code_interpreter |
Sì |
OpenAI.AssistantToolsFileSearch
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| file_search | OpenAI.AssistantToolsFileSearchFileSearch | No | ||
| └max_num_results | Intero | Vincoli: min: 1, max: 50 | No | |
| └ranking_options | OpenAI.FileSearchRankingOptions | Opzioni di classificazione per la ricerca di file. Se non specificato, lo strumento di ricerca file userà il auto ranker e un score_threshold pari a 0.Per altre informazioni, vedere la documentazione dello strumento di ricerca file . |
No | |
| digitare | Enum | Il tipo di strumento definito: file_searchValori possibili: file_search |
Sì |
OpenAI.AssistantToolsFileSearchFileSearch
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| max_num_results | Intero | Vincoli: min: 1, max: 50 | No | |
| ranking_options | OpenAI.FileSearchRankingOptions | Opzioni di classificazione per la ricerca di file. Se non specificato, lo strumento di ricerca file userà il auto ranker e un score_threshold pari a 0.Per altre informazioni, vedere la documentazione dello strumento di ricerca file . |
No |
OpenAI.AssistantToolsFileSearchTypeOnly
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Il tipo di strumento definito: file_searchValori possibili: file_search |
Sì |
OpenAI.AssistantToolsFunction
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Funzione | OpenAI.FunctionObject | Sì | ||
| digitare | Enum | Il tipo di strumento definito: functionValori possibili: function |
Sì |
OpenAI.AssistantsApiResponseFormatOption
Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.
L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere Impostazione per { "type": "json_object" } abilitare la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.
Importante:* quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto.
Tipo: string o OpenAI.ResponseFormatText o OpenAI.ResponseFormatJsonObject o OpenAI.ResponseFormatJsonSchema
Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.
L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere Impostazione per { "type": "json_object" } abilitare la modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido.
Importante:* quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto.
OpenAI.AssistantsApiToolChoiceOption
Controlla quale (se presente) strumento viene chiamato dal modello.
none significa che il modello non richiamerà nessuno strumento ma invece genera un messaggio.
auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.
required indica che il modello deve chiamare uno o più strumenti prima di rispondere all'utente.
Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo.
Tipo: string o OpenAI.AssistantsNamedToolChoice
Controlla quale (se presente) strumento viene chiamato dal modello.
none significa che il modello non richiamerà nessuno strumento ma invece genera un messaggio.
auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.
required indica che il modello deve chiamare uno o più strumenti prima di rispondere all'utente.
Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo.
OpenAI.AssistantsNamedToolChoice
Specifica uno strumento che il modello dovrebbe utilizzare. Usalo per forzare il modello a chiamare uno strumento specifico.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Funzione | OpenAI.AssistantsNamedToolChoiceFunction | No | ||
| digitare | Enum | Il tipo di attrezzo. Se il tipo è function, il nome della funzione deve essere impostatoValori possibili: function, code_interpreter, file_search |
Sì |
OpenAI.AssistantsNamedToolChoiceFunction
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Nome | Stringa | Sì |
OpenAI.AudioTranscription
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Lingua | Stringa | Il linguaggio dell'audio in ingresso. Specifica della lingua di input in Formato ISO-639-1 (ad esempio en)migliorerà l'accuratezza e la latenza. |
No | |
| Modello | Stringa | Il modello da usare per la trascrizione. Le opzioni correnti sono whisper-1, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15gpt-4o-transcribe, e gpt-4o-transcribe-diarize. Usare gpt-4o-transcribe-diarize quando è necessaria la diarizzazione con le etichette dell'altoparlante. |
No | |
| prompt | Stringa | Testo facoltativo per guidare lo stile del modello o continuare un audio precedente Segmento. Per whisper-1, il prompt è un elenco di parole chiave.Per gpt-4o-transcribe i modelli (escluso gpt-4o-transcribe-diarize), il prompt è una stringa di testo libero, ad esempio "aspetta parole correlate alla tecnologia". |
No |
OpenAI.AutoChunkingStrategyRequestParam
La strategia predefinita. Questa strategia attualmente utilizza un max_chunk_size_tokens di 800 e chunk_overlap_tokens di 400.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Sempre auto.Valori possibili: auto |
Sì |
OpenAI.Batch
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| cancelled_at | Intero | Timestamp Unix (in secondi) per il momento in cui il batch è stato annullato. | No | |
| cancelling_at | Intero | Timestamp Unix (in secondi) per l'avvio dell'annullamento del batch. | No | |
| completed_at | Intero | Timestamp Unix (in secondi) per il completamento del batch. | No | |
| completion_window | Stringa | Il tempo entro cui il lotto deve essere elaborato. | Sì | |
| created_at | Intero | Timestamp Unix (in secondi) per il momento in cui è stato creato il batch. | Sì | |
| Endpoint | Stringa | Endpoint DELL'API OpenAI usato dal batch. | Sì | |
| error_file_id | Stringa | ID del file contenente gli output delle richieste con errori. | No | |
| Errori | OpenAI.BatchErrors | No | ||
| expired_at | Intero | Timestamp Unix (in secondi) per quando il batch è scaduto. | No | |
| expires_at | Intero | Timestamp Unix (in secondi) per la scadenza del batch. | No | |
| failed_at | Intero | Timestamp Unix (in secondi) per quando il batch non è riuscito. | No | |
| finalizing_at | Intero | Timestamp Unix (in secondi) per quando il batch ha iniziato a finalizzare. | No | |
| Id | Stringa | Sì | ||
| in_progress_at | Intero | Timestamp Unix (in secondi) per l'avvio dell'elaborazione del batch. | No | |
| input_file_id | stringa o null | No | ||
| Metadati | OpenAI.Metadata o Null | No | ||
| Modello | Stringa | ID modello usato per elaborare il batch, ad esempio gpt-5-2025-08-07. OpenAIoffre un'ampia gamma di modelli con diverse funzionalità, prestazioni caratteristiche e punti di prezzo. Fare riferimento al modello guida per esplorare e confrontare i modelli disponibili. |
No | |
| Oggetto | Enum | Il tipo di oggetto, che è sempre batch.Valori possibili: batch |
Sì | |
| output_file_id | Stringa | ID del file contenente gli output delle richieste eseguite correttamente. | No | |
| request_counts | OpenAI.BatchRequestCounts | La richiesta conta per stati diversi all'interno del lotto. | No | |
| Stato | Enum | Stato corrente del batch. Valori possibili: validating, failed, in_progress, finalizing, completed, expired, cancelling, cancelled |
Sì | |
| Utilizzo | OpenAI.BatchUsage | No | ||
| └input_tokens | Intero | Sì | ||
| └input_tokens_details | OpenAI.BatchUsageInputTokensDetails | Sì | ||
| └output_tokens | Intero | Sì | ||
| └output_tokens_details | OpenAI.BatchUsageOutputTokensDetails | Sì | ||
| └total_tokens | Intero | Sì |
OpenAI.BatchError
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Codice | Stringa | Un codice di errore che identifica il tipo di errore. | No | |
| Linea | integer o null | No | ||
| Messaggio | Stringa | Un messaggio leggibile dall'uomo che fornisce maggiori dettagli sull'errore. | No | |
| Param | stringa o null | No |
OpenAI.BatchErrors
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | matrice di OpenAI.BatchError | No | ||
| Oggetto | Stringa | No |
OpenAI.BatchRequestCounts
La richiesta conta per stati diversi all'interno del lotto.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Completato | Intero | Numero di richieste completate correttamente. | Sì | |
| Fallito | Intero | Numero di richieste non riuscite. | Sì | |
| Totale | Intero | Numero totale di richieste nel batch. | Sì |
OpenAI.BatchUsage
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| input_tokens | Intero | Sì | ||
| input_tokens_details | OpenAI.BatchUsageInputTokensDetails | Sì | ||
| output_tokens | Intero | Sì | ||
| output_tokens_details | OpenAI.BatchUsageOutputTokensDetails | Sì | ||
| total_tokens | Intero | Sì |
OpenAI.BatchUsageInputTokensDetails
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| cached_tokens | Intero | Sì |
OpenAI.BatchUsageOutputTokensDetails
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| reasoning_tokens | Intero | Sì |
OpenAI.ChatCompletionAllowedTools
Vincola gli strumenti disponibili al modello a un set predefinito.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Modalità | Enum | Vincola gli strumenti disponibili al modello a un set predefinito.auto consente al modello di scegliere tra gli strumenti consentiti e generare unMessaggio. required richiede al modello di chiamare uno o più degli strumenti consentiti.Valori possibili: auto, required |
Sì | |
| Strumenti | matrice di oggetti | Elenco di definizioni degli strumenti che il modello deve essere autorizzato a chiamare. Per l'API Completamento chat, l'elenco delle definizioni degli strumenti potrebbe essere simile al seguente: json<br> [<br> { "type": "function", "function": { "name": "get_weather" } },<br> { "type": "function", "function": { "name": "get_time" } }<br> ]<br> |
Sì |
OpenAI.ChatCompletionAllowedToolsChoice
Vincola gli strumenti disponibili al modello a un set predefinito.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| allowed_tools | OpenAI.ChatCompletionAllowedTools | Vincola gli strumenti disponibili al modello a un set predefinito. | Sì | |
| digitare | Enum | Tipo di configurazione dello strumento consentito. Sempre allowed_tools.Valori possibili: allowed_tools |
Sì |
OpenAI.ChatCompletionFunctionCallOption
Specificare una particolare funzione via {"name": "my_function"} obbliga il modello a chiamare quella funzione.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Nome | Stringa | Il nome della funzione da chiamare. | Sì |
OpenAI.ChatCompletionFunctions
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Descrizione | Stringa | Una descrizione di ciò che fa la funzione, usata dal modello per scegliere quando e come chiamarla. | No | |
| Nome | Stringa | Il nome della funzione da chiamare. Devono essere dalla a-z, dalla A-Z, da 0 a 9, oppure contenere sottolineamenti e trattini, con una lunghezza massima di 64. | Sì | |
| Parametri | OpenAI.FunctionParameters | I parametri che le funzioni accettano, descritti come un oggetto JSON Schema. Vedere la guida per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato. Omettere parameters definisce una funzione con una lista di parametri vuota. |
No |
OpenAI.ChatCompletionMessageCustomToolCall
Chiamata a uno strumento personalizzato creato dal modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Personalizzato | OpenAI.ChatCompletionMessageCustomToolCallCustom | Sì | ||
| Input └* | Stringa | Sì | ||
| └> nome | Stringa | Sì | ||
| Id | Stringa | L'ID della chiamata dello strumento. | Sì | |
| digitare | Enum | Il tipo di attrezzo. Sempre custom.Valori possibili: custom |
Sì |
OpenAI.ChatCompletionMessageCustomToolCallCustom
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Input | Stringa | Sì | ||
| Nome | Stringa | Sì |
OpenAI.ChatCompletionMessageToolCall
Chiamata a uno strumento di funzione creato dal modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Funzione | OpenAI.ChatCompletionMessageToolCallFunction | Sì | ||
| Argomenti └* | Stringa | Sì | ||
| └> nome | Stringa | Sì | ||
| Id | Stringa | L'ID della chiamata dello strumento. | Sì | |
| digitare | Enum | Il tipo di attrezzo. Attualmente, solo function è supportato.Valori possibili: function |
Sì |
OpenAI.ChatCompletionMessageToolCallChunk
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Funzione | OpenAI.ChatCompletionMessageToolCallChunkFunction | No | ||
| Id | Stringa | L'ID della chiamata dello strumento. | No | |
| Indice | Intero | Sì | ||
| digitare | Enum | Il tipo di attrezzo. Attualmente, solo function è supportato.Valori possibili: function |
No |
OpenAI.ChatCompletionMessageToolCallChunkFunction
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Argomenti | Stringa | No | ||
| Nome | Stringa | No |
OpenAI.ChatCompletionMessageToolCallFunction
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Argomenti | Stringa | Sì | ||
| Nome | Stringa | Sì |
OpenAI.ChatCompletionMessageToolCalls
Le chiamate degli strumenti generate dal modello, come le chiamate di funzione.
OpenAI.ChatCompletionMessageToolCallsItem
Le chiamate degli strumenti generate dal modello, come le chiamate di funzione.
OpenAI.ChatCompletionNamedToolChoice
Specifica uno strumento che il modello dovrebbe utilizzare. Usa per forzare il modello a chiamare una funzione specifica.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Funzione | OpenAI.ChatCompletionNamedToolChoiceFunction | Sì | ||
| digitare | Enum | Per la chiamata di funzioni, il tipo è sempre function.Valori possibili: function |
Sì |
OpenAI.ChatCompletionNamedToolChoiceCustom
Specifica uno strumento che il modello dovrebbe utilizzare. Usare per forzare il modello a chiamare uno strumento personalizzato specifico.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Personalizzato | OpenAI.ChatCompletionNamedToolChoiceCustomCustom | Sì | ||
| digitare | Enum | Per la chiamata a uno strumento personalizzato, il tipo è sempre custom.Valori possibili: custom |
Sì |
OpenAI.ChatCompletionNamedToolChoiceCustomCustom
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Nome | Stringa | Sì |
OpenAI.ChatCompletionNamedToolChoiceFunction
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Nome | Stringa | Sì |
OpenAI.ChatCompletionRequestAssistantMessage
Messaggi inviati dal modello in risposta ai messaggi utente.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Audio | OpenAI.ChatCompletionRequestAssistantMessageAudio o null | Dati relativi a una risposta audio precedente dal modello. | No | |
| Contenuto | stringa o matrice di OpenAI.ChatCompletionRequestAssistantMessageContentPart o null | No | ||
| function_call | OpenAI.ChatCompletionRequestAssistantMessageFunctionCall o null | No | ||
| Nome | Stringa | Un nome opzionale per il partecipante. Fornisce le informazioni sul modello per differenziare i partecipanti dello stesso ruolo. | No | |
| Rifiuto | stringa o null | No | ||
| Ruolo | Enum | Il ruolo dell'autore dei messaggi, in questo caso assistant.Valori possibili: assistant |
Sì | |
| tool_calls | OpenAI.ChatCompletionMessageToolCalls | Le chiamate degli strumenti generate dal modello, come le chiamate di funzione. | No |
OpenAI.ChatCompletionRequestAssistantMessageAudio
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Id | Stringa | Sì |
OpenAI.ChatCompletionRequestAssistantMessageContentPart
Discriminatorio per OpenAI.ChatCompletionRequestAssistantMessageContentPart
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
refusal |
OpenAI.ChatCompletionRequestMessageContentPartRefusal |
text |
OpenAI.ChatCompletionRequestAssistantMessageContentPartChatCompletionRequestMessageContentPartText |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.ChatCompletionRequestAssistantMessageContentPartType | Sì |
OpenAI.ChatCompletionRequestAssistantMessageContentPartChatCompletionRequestMessageContentPartText
Informazioni sugli input di testo.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Testo | Stringa | Il contenuto del testo. | Sì | |
| digitare | Enum | La parte del tipo di contenuto. Valori possibili: text |
Sì |
OpenAI.ChatCompletionRequestAssistantMessageContentPartType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | textrefusal |
OpenAI.ChatCompletionRequestAssistantMessageFunctionCall
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Argomenti | Stringa | Sì | ||
| Nome | Stringa | Sì |
OpenAI.ChatCompletionRequestDeveloperMessage
Istruzioni fornite dagli sviluppatori che il modello dovrebbe seguire, indipendentemente dai messaggi inviati dall'utente. Con i modelli O1 e quelli più recenti, developer i messaggi sostituiscono quelli precedenti system .
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Contenuto | stringa o matrice di OpenAI.ChatCompletionRequestMessageContentPartText | Il contenuto del messaggio dello sviluppatore. | Sì | |
| Nome | Stringa | Un nome opzionale per il partecipante. Fornisce le informazioni sul modello per differenziare i partecipanti dello stesso ruolo. | No | |
| Ruolo | Enum | Il ruolo dell'autore dei messaggi, in questo caso developer.Valori possibili: developer |
Sì |
OpenAI.ChatCompletionRequestFunctionMessage
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Contenuto | stringa o null | Sì | ||
| Nome | Stringa | Il nome della funzione da chiamare. | Sì | |
| Ruolo | Enum | Il ruolo dell'autore dei messaggi, in questo caso function.Valori possibili: function |
Sì |
OpenAI.ChatCompletionRequestMessage
Discriminare per OpenAI.ChatCompletionRequestMessage
Questa componente utilizza la proprietà role per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
assistant |
OpenAI.ChatCompletionRequestAssistantMessage |
developer |
OpenAI.ChatCompletionRequestDeveloperMessage |
function |
OpenAI.ChatCompletionRequestFunctionMessage |
system |
OpenAI.ChatCompletionRequestSystemMessage |
user |
OpenAI.ChatCompletionRequestUserMessage |
tool |
OpenAI.ChatCompletionRequestToolMessage |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Ruolo | OpenAI.ChatCompletionRequestMessageType | Sì |
OpenAI.ChatCompletionRequestMessageContentPartAudio
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| input_audio | OpenAI.ChatCompletionRequestMessageContentPartAudioInputAudio | Sì | ||
| digitare | Enum | La parte del tipo di contenuto. Sempre input_audio.Valori possibili: input_audio |
Sì |
OpenAI.ChatCompletionRequestMessageContentPartAudioInputAudio
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | Stringa | Sì | ||
| Formato | Enum | Valori possibili: wav, mp3 |
Sì |
OpenAI.ChatCompletionRequestMessageContentPartFile
Informazioni sugli input di file per la generazione di testo.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| File | OpenAI.ChatCompletionRequestMessageContentPartFileFile | Sì | ||
| └file_data | Stringa | No | ||
| └file_id | Stringa | No | ||
| └> nome file | Stringa | No | ||
| digitare | Enum | La parte del tipo di contenuto. Sempre file.Valori possibili: file |
Sì |
OpenAI.ChatCompletionRequestMessageContentPartFileFile
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| file_data | Stringa | No | ||
| File_id | Stringa | No | ||
| Filename | Stringa | No |
OpenAI.ChatCompletionRequestMessageContentPartImage
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| image_url | OpenAI.ChatCompletionRequestMessageContentPartImageUrl | Sì | ||
| digitare | Enum | La parte del tipo di contenuto. Valori possibili: image_url |
Sì |
OpenAI.ChatCompletionRequestMessageContentPartImageUrl
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dettaglio | Enum | Valori possibili: auto, low, high |
No | |
| Url | Stringa | Sì |
OpenAI.ChatCompletionRequestMessageContentPartRefusal
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Rifiuto | Stringa | Il messaggio di rifiuto generato dal modello. | Sì | |
| digitare | Enum | La parte del tipo di contenuto. Valori possibili: refusal |
Sì |
OpenAI.ChatCompletionRequestMessageContentPartText
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Testo | Stringa | Il contenuto del testo. | Sì | |
| digitare | Enum | La parte del tipo di contenuto. Valori possibili: text |
Sì |
OpenAI.ChatCompletionRequestMessageType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | developersystemuserassistanttoolfunction |
OpenAI.ChatCompletionRequestSystemMessage
Istruzioni fornite dagli sviluppatori che il modello dovrebbe seguire, indipendentemente dai messaggi inviati dall'utente. Con i modelli o1 e versioni successive, usare developer invece i messaggi per questo scopo.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Contenuto | stringa o matrice di OpenAI.ChatCompletionRequestSystemMessageContentPart | Il contenuto del messaggio di sistema. | Sì | |
| Nome | Stringa | Un nome opzionale per il partecipante. Fornisce le informazioni sul modello per differenziare i partecipanti dello stesso ruolo. | No | |
| Ruolo | Enum | Il ruolo dell'autore dei messaggi, in questo caso system.Valori possibili: system |
Sì |
OpenAI.ChatCompletionRequestSystemMessageContentPart
Riferimenti: OpenAI.ChatCompletionRequestMessageContentPartText
OpenAI.ChatCompletionRequestToolMessage
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Contenuto | stringa o matrice di OpenAI.ChatCompletionRequestToolMessageContentPart | Il contenuto del messaggio dello strumento. | Sì | |
| Ruolo | Enum | Il ruolo dell'autore dei messaggi, in questo caso tool.Valori possibili: tool |
Sì | |
| tool_call_id | Stringa | Chiamata dello strumento a cui questo messaggio sta rispondendo. | Sì |
OpenAI.ChatCompletionRequestToolMessageContentPart
Riferimenti: OpenAI.ChatCompletionRequestMessageContentPartText
OpenAI.ChatCompletionRequestUserMessage
Messaggi inviati da un utente finale, contenenti richieste o informazioni di contesto aggiuntive.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Contenuto | stringa o matrice di OpenAI.ChatCompletionRequestUserMessageContentPart | Il contenuto del messaggio utente. | Sì | |
| Nome | Stringa | Un nome opzionale per il partecipante. Fornisce le informazioni sul modello per differenziare i partecipanti dello stesso ruolo. | No | |
| Ruolo | Enum | Il ruolo dell'autore dei messaggi, in questo caso user.Valori possibili: user |
Sì |
OpenAI.ChatCompletionRequestUserMessageContentPart
Discriminare per OpenAI.ChatCompletionRequestUserMessageContentPart
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.ChatCompletionRequestUserMessageContentPartType | Sì |
OpenAI.ChatCompletionRequestUserMessageContentPartChatCompletionRequestMessageContentPartText
Informazioni sugli input di testo.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Testo | Stringa | Il contenuto del testo. | Sì | |
| digitare | Enum | La parte del tipo di contenuto. Valori possibili: text |
Sì |
OpenAI.ChatCompletionRequestUserMessageContentPartType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | textimage_urlinput_audiofile |
OpenAI.ChatCompletionResponseMessage
Se viene richiesta la modalità di uscita audio, questo oggetto contiene dati sulla risposta audio dal modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Annotazioni | matrice di OpenAI.ChatCompletionResponseMessageAnnotations | Annotazioni per il messaggio, se applicabile, come quando si usa strumento di ricerca Web. |
No | |
| Audio | OpenAI.ChatCompletionResponseMessageAudio o null | No | ||
| Contenuto | stringa o null | Sì | ||
| function_call | OpenAI.ChatCompletionResponseMessageFunctionCall | No | ||
| Argomenti └* | Stringa | Sì | ||
| └> nome | Stringa | Sì | ||
| reasoning_content | Stringa | Proprietà di estensione specifica di Azure contenente contenuto di ragionamento generato dai modelli supportati. | No | |
| Rifiuto | stringa o null | Sì | ||
| Ruolo | Enum | Il ruolo dell'autore di questo messaggio. Valori possibili: assistant |
Sì | |
| tool_calls | OpenAI.ChatCompletionMessageToolCallsItem | Le chiamate degli strumenti generate dal modello, come le chiamate di funzione. | No |
OpenAI.ChatCompletionResponseMessageAnnotations
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Valori possibili: url_citation |
Sì | |
| url_citation | OpenAI.ChatCompletionResponseMessageAnnotationsUrlCitation | Sì |
OpenAI.ChatCompletionResponseMessageAnnotationsUrlCitation
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| end_index | Intero | Sì | ||
| start_index | Intero | Sì | ||
| Titolo | Stringa | Sì | ||
| Url | Stringa | Sì |
OpenAI.ChatCompletionResponseMessageAudio
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | Stringa | Sì | ||
| expires_at | Intero | Sì | ||
| Id | Stringa | Sì | ||
| Trascrizione | Stringa | Sì |
OpenAI.ChatCompletionResponseMessageFunctionCall
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Argomenti | Stringa | Sì | ||
| Nome | Stringa | Sì |
OpenAI.ChatCompletionStreamOptions
Opzioni per la risposta allo streaming. Imposta questo solo quando imposti stream: true.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| include_obfuscation | Boolean | Se true, l'offuscamento del flusso verrà abilitato. Aggiunta dell'offuscamento del flusso caratteri casuali in un obfuscation campo sugli eventi delta di streaming anormalizzare le dimensioni del payload come mitigazione per determinati attacchi sul canale laterale. Questi campi offuscamento sono inclusi per impostazione predefinita, ma aggiungono una piccola quantità sovraccarico per il flusso di dati. È possibile impostare su include_obfuscationfalse per ottimizzare la larghezza di banda se si considera attendibile il collegamento di rete tra l'applicazione e l'API OpenAI. |
No | |
| include_usage | Boolean | Se impostato, un blocco aggiuntivo verrà trasmesso prima del data: [DONE]Messaggio. Il usage campo in questo blocco mostra le statistiche di utilizzo dei tokenper l'intera richiesta e il choices campo sarà sempre vuotoMatrice. Tutti gli altri blocchi includeranno anche un usage campo, ma con un valore NullValore. NOTA: Se il flusso viene interrotto, è possibile che non venga ricevuto blocco di utilizzo finale che contiene l'utilizzo totale dei token per la richiesta. |
No |
OpenAI.ChatCompletionStreamResponseDelta
Un delta di completamento della chat generato dalle risposte del modello in streaming.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Contenuto | stringa o null | No | ||
| function_call | OpenAI.ChatCompletionStreamResponseDeltaFunctionCall | No | ||
| Argomenti └* | Stringa | No | ||
| └> nome | Stringa | No | ||
| reasoning_content | Stringa | Proprietà di estensione specifica di Azure contenente contenuto di ragionamento generato dai modelli supportati. | No | |
| Rifiuto | stringa o null | No | ||
| Ruolo | Enum | Il ruolo dell'autore di questo messaggio. Valori possibili: developer, system, user, assistant, tool |
No | |
| tool_calls | matrice di OpenAI.ChatCompletionMessageToolCallChunk | No |
OpenAI.ChatCompletionStreamResponseDeltaFunctionCall
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Argomenti | Stringa | No | ||
| Nome | Stringa | No |
OpenAI.ChatCompletionTokenLogprob
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Byte | matrice di numeri interi o null | Sì | ||
| logprob | Numero | La probabilità logaritmica di questo token, se si trova tra i primi 20 token più probabili. Altrimenti, il valore -9999.0 viene usato per indicare che il token è molto improbabile. |
Sì | |
| Token | Stringa | Token. | Sì | |
| top_logprobs | matrice di OpenAI.ChatCompletionTokenLogprobTopLogprobs | Elenco dei token più probabili e della loro probabilità logarithmita, in questa posizione del token. In rari casi, potrebbero esserci meno del numero di richieste top_logprobs restituite. |
Sì |
OpenAI.ChatCompletionTokenLogprobTopLogprobs
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Byte | matrice di numeri interi o null | Sì | ||
| logprob | Numero | Sì | ||
| Token | Stringa | Sì |
OpenAI.ChatCompletionTool
Strumento di funzione che può essere usato per generare una risposta.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Funzione | OpenAI.FunctionObject | Sì | ||
| digitare | Enum | Il tipo di attrezzo. Attualmente, solo function è supportato.Valori possibili: function |
Sì |
OpenAI.ChatCompletionToolChoiceOption
Controlla quale (se presente) strumento viene chiamato dal modello.
none significa che il modello non chiamerà nessuno strumento ma genera invece un messaggio.
auto significa che il modello può scegliere tra generare un messaggio o chiamare uno o più strumenti.
required significa che il modello deve chiamare uno o più strumenti.
Specificare uno strumento particolare tramite {"type": "function", "function": {"name": "my_function"}} costringe il modello a chiamare quello strumento.
none è il valore predefinito quando non ci sono strumenti presenti.
auto è la norma se sono presenti strumenti.
Tipo: string o OpenAI.ChatCompletionAllowedToolsChoice o OpenAI.ChatCompletionNamedToolChoice o OpenAI.ChatCompletionNamedToolChoiceCustom
Controlla quale (se presente) strumento viene chiamato dal modello.
none significa che il modello non chiamerà nessuno strumento ma genera invece un messaggio.
auto significa che il modello può scegliere tra generare un messaggio o chiamare uno o più strumenti.
required significa che il modello deve chiamare uno o più strumenti.
Specificare uno strumento particolare tramite {"type": "function", "function": {"name": "my_function"}} costringe il modello a chiamare quello strumento.
none è il valore predefinito quando non ci sono strumenti presenti.
auto è la norma se sono presenti strumenti.
OpenAI.ChunkingStrategyRequestParam
La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . Applicabile solo se file_ids non è vuoto.
Discriminante per OpenAI.ChunkingStrategyRequestParam
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
auto |
OpenAI.AutoChunkingStrategyRequestParam |
static |
OpenAI.StaticChunkingStrategyRequestParam |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.ChunkingStrategyRequestParamType | Sì |
OpenAI.ChunkingStrategyRequestParamType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | autostatic |
OpenAI.ChunkingStrategyResponse
Strategia usata per suddividere il file.
Discriminante per OpenAI.ChunkingStrategyResponse
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
static |
OpenAI.StaticChunkingStrategyResponseParam |
other |
OpenAI.OtherChunkingStrategyResponseParam |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.ChunkingStrategyResponseType | Sì |
OpenAI.ChunkingStrategyResponseType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | staticother |
OpenAI.ClickButtonType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | leftrightwheelbackforward |
OpenAI.ClickParam
Un'azione di clic.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Pulsante | OpenAI.ClickButtonType | Sì | ||
| digitare | Enum | Specifica il tipo di evento. Per un'azione di clic, questa proprietà è sempre click.Valori possibili: click |
Sì | |
| X | Intero | La coordinata x dove si è verificato il clic. | Sì | |
| Y | Intero | La coordinata y in cui si è verificato il clic. | Sì |
OpenAI.CodeInterpreterContainerAuto
Configurazione per un contenitore dell'interprete di codice. Facoltativamente, specificare gli ID dei file in cui eseguire il codice.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| file_ids | matrice di stringhe | Elenco facoltativo di file caricati da rendere disponibile per il codice. | No | |
| memory_limit | OpenAI.ContainerMemoryLimit o null | No | ||
| digitare | Enum | Sempre auto.Valori possibili: auto |
Sì |
OpenAI.CodeInterpreterOutputImage
Output dell'immagine dell'interprete di codice.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Tipo dell'output. Sempre image.Valori possibili: image |
Sì | |
| Url | Stringa | URL dell'output dell'immagine dall'interprete di codice. | Sì |
OpenAI.CodeInterpreterOutputLogs
Output dei log dall'interprete di codice.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Registri | Stringa | Output dei log dall'interprete di codice. | Sì | |
| digitare | Enum | Tipo dell'output. Sempre logs.Valori possibili: logs |
Sì |
OpenAI.CodeInterpreterTool
Strumento che esegue codice Python per generare una risposta a un prompt.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Contenitore | string o OpenAI.CodeInterpreterContainerAuto | Contenitore dell'interprete di codice. Può essere un ID contenitore o un oggetto che specifica gli ID file caricati per rendere disponibile il codice, insieme a un impostazione facoltativa memory_limit . |
Sì | |
| digitare | Enum | Il tipo di strumento di interprete di codice. Sempre code_interpreter.Valori possibili: code_interpreter |
Sì |
OpenAI.ComparisonFilter
Un filtro usato per confrontare una chiave di attributo specificata con un dato valore utilizzando un'operazione di confronto definita.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Chiave | Stringa | La chiave è confrontare con il valore. | Sì | |
| digitare | Enum | Specifica l'operatore di confronto: eq, negt, gte, , ltlte, innin.- eq: uguale- ne: non uguale- gt: maggiore di- gte: maggiore o uguale- lt: meno di- lte: minore o uguale- in:Pollici- nin: non inValori possibili: eq, ne, gt, gte, lt, lte |
Sì | |
| Valore | stringa o numero o matrice booleana o di OpenAI.ComparisonFilterValueItems | Il valore da confrontare con la chiave di attributi; supporta tipi di stringa, numero o booleani. | Sì |
OpenAI.ComparisonFilterValueItems
Questo schema accetta uno dei tipi seguenti:
- Stringa
- Numero
OpenAI.CompletionUsage
Statistiche di utilizzo per la richiesta di completamento.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| completion_tokens | Intero | Numero di gettoni nel completamento generato. | Sì | |
| completion_tokens_details | OpenAI.CompletionUsageCompletionTokensDetails | No | ||
| └accepted_prediction_tokens | Intero | No | ||
| └audio_tokens | Intero | No | ||
| └reasoning_tokens | Intero | No | ||
| └rejected_prediction_tokens | Intero | No | ||
| prompt_tokens | Intero | Numero di gettoni nel prompt. | Sì | |
| prompt_tokens_details | OpenAI.CompletionUsagePromptTokensDetails | No | ||
| └audio_tokens | Intero | No | ||
| └cached_tokens | Intero | No | ||
| total_tokens | Intero | Numero totale di token utilizzati nella richiesta (prompt + completamento). | Sì |
OpenAI.CompletionUsageCompletionTokensDetails
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| accepted_prediction_tokens | Intero | No | ||
| audio_tokens | Intero | No | ||
| reasoning_tokens | Intero | No | ||
| rejected_prediction_tokens | Intero | No |
OpenAI.CompletionUsagePromptTokensDetails
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| audio_tokens | Intero | No | ||
| cached_tokens | Intero | No |
OpenAI.CompoundFilter
Combina più filtri usando and o or.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Filtri | matrice di oggetto o OpenAI.ComparisonFilter | Array di filtri da combinare. Gli oggetti possono essere ComparisonFilter oppure CompoundFilter. |
Sì | |
| digitare | Enum | Tipo di operazione: and oppure or.Valori possibili: and, or |
Sì |
OpenAI.ComputerAction
Discriminare per OpenAI.ComputerAction
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
click |
OpenAI.ClickParam |
double_click |
OpenAI.DoubleClickAction |
drag |
OpenAI.Drag |
keypress |
OpenAI.KeyPressAction |
move |
OpenAI.Move |
screenshot |
OpenAI.Screenshot |
scroll |
OpenAI.Scroll |
type |
OpenAI.Type |
wait |
OpenAI.Wait |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.ComputerActionType | Sì |
OpenAI.ComputerActionType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | clickdouble_clickdragkeypressmovescreenshotscrolltypewait |
OpenAI.ComputerCallSafetyCheckParam
Un controllo di sicurezza in attesa per la chiamata al computer.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Codice | stringa o null | No | ||
| Id | Stringa | L'ID del controllo di sicurezza in corso. | Sì | |
| Messaggio | stringa o null | No |
OpenAI.ComputerEnvironment
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | windowsmaclinuxubuntubrowser |
OpenAI.ComputerScreenshotContent
Screenshot di un computer.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| File_id | stringa o null | Sì | ||
| image_url | stringa o null | Sì | ||
| digitare | Enum | Specifica il tipo di evento. Per uno screenshot del computer, questa proprietà è sempre impostata su computer_screenshot.Valori possibili: computer_screenshot |
Sì |
OpenAI.ComputerScreenshotImage
Un'immagine screenshot del computer usata con lo strumento di uso del computer.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| File_id | Stringa | L'identificatore di un file caricato che contiene lo screenshot. | No | |
| image_url | Stringa | L'URL dell'immagine dello screenshot. | No | |
| digitare | Enum | Specifica il tipo di evento. Per uno screenshot del computer, questa proprietà è sempre impostato su computer_screenshot.Valori possibili: computer_screenshot |
Sì |
OpenAI.ComputerUsePreviewTool
Uno strumento che controlla un computer virtuale.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| display_height | Intero | L'altezza del display del computer. | Sì | |
| display_width | Intero | La larghezza del display del computer. | Sì | |
| Ambiente | OpenAI.ComputerEnvironment | Sì | ||
| digitare | Enum | Il tipo di strumento per l'uso del computer. Sempre computer_use_preview.Valori possibili: computer_use_preview |
Sì |
OpenAI.ContainerFileCitationBody
Citazione per un file di contenitore usato per generare una risposta del modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| container_id | Stringa | ID del file contenitore. | Sì | |
| end_index | Intero | Indice dell'ultimo carattere della citazione del file contenitore nel messaggio. | Sì | |
| File_id | Stringa | L'ID del fascicolo. | Sì | |
| Filename | Stringa | Nome file del file contenitore citato. | Sì | |
| start_index | Intero | Indice del primo carattere della citazione del file contenitore nel messaggio. | Sì | |
| digitare | Enum | Tipo di citazione del file contenitore. Sempre container_file_citation.Valori possibili: container_file_citation |
Sì |
OpenAI.ContainerFileListResource
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | matrice di OpenAI.ContainerFileResource | Elenco di file del contenitore. | Sì | |
| first_id | Stringa | ID del primo file nell'elenco. | Sì | |
| has_more | Boolean | Indica se sono disponibili altri file. | Sì | |
| last_id | Stringa | ID dell'ultimo file nell'elenco. | Sì | |
| Oggetto | Enum | Il tipo di oggetto restituito deve essere 'list'. Valori possibili: list |
Sì |
OpenAI.ContainerFileResource
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Byte | Intero | Dimensioni del file in byte. | Sì | |
| container_id | Stringa | Il contenitore a cui appartiene questo file. | Sì | |
| created_at | Intero | Timestamp Unix (in secondi) al momento della creazione del file. | Sì | |
| Id | Stringa | Identificatore univoco per il file. | Sì | |
| Oggetto | Enum | Tipo di questo oggetto (container.file).Valori possibili: container.file |
Sì | |
| Percorso | Stringa | Percorso del file nel contenitore. | Sì | |
| fonte | Stringa | Origine del file ( ad esempio , user). assistant |
Sì |
OpenAI.ContainerListResource
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | matrice di OpenAI.ContainerResource | Elenco di contenitori. | Sì | |
| first_id | Stringa | ID del primo contenitore nell'elenco. | Sì | |
| has_more | Boolean | Indica se sono disponibili altri contenitori. | Sì | |
| last_id | Stringa | ID dell'ultimo contenitore nell'elenco. | Sì | |
| Oggetto | Enum | Il tipo di oggetto restituito deve essere 'list'. Valori possibili: list |
Sì |
OpenAI.ContainerMemoryLimit
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | 1g4g16g64g |
OpenAI.ContainerResource
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| created_at | Intero | Timestamp Unix (in secondi) al momento della creazione del contenitore. | Sì | |
| expires_after | OpenAI.ContainerResourceExpiresAfter | No | ||
| Ancoraggio └* | Enum | Valori possibili: last_active_at |
No | |
| └* minuti | Intero | No | ||
| Id | Stringa | Identificatore univoco per il contenitore. | Sì | |
| last_active_at | Intero | Timestamp Unix (in secondi) quando il contenitore è stato attivo per l'ultima volta. | No | |
| memory_limit | Enum | Limite di memoria configurato per il contenitore. Valori possibili: 1g, 4g, 16g, 64g |
No | |
| Nome | Stringa | Nome del contenitore. | Sì | |
| Oggetto | Stringa | Il tipo di questo oggetto. | Sì | |
| Stato | Stringa | Stato del contenitore(ad esempio, attivo, eliminato). | Sì |
OpenAI.ContainerResourceExpiresAfter
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| ancora | Enum | Valori possibili: last_active_at |
No | |
| Minuti | Intero | No |
OpenAI.ConversationItem
Un singolo elemento all'interno di una conversazione. Il set di tipi possibili è uguale al output tipo di un oggetto Response.
Discriminare per OpenAI.ConversationItem
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.ConversationItemType | Sì |
OpenAI.ConversationItemApplyPatchToolCall
Chiamata dello strumento che applica differenze di file creando, eliminando o aggiornando i file.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| call_id | Stringa | ID univoco della chiamata dello strumento applica patch generata dal modello. | Sì | |
| created_by | Stringa | ID dell'entità che ha creato questa chiamata allo strumento. | No | |
| Id | Stringa | ID univoco della chiamata dello strumento apply patch. Popolata quando questo elemento viene restituito tramite API. | Sì | |
| Operazione | OpenAI.ApplyPatchFileOperation | Una delle operazioni di create_file, delete_file o update_file applicate tramite apply_patch. | Sì | |
| Tipo └* | OpenAI.ApplyPatchFileOperationType | Sì | ||
| Stato | OpenAI.ApplyPatchCallStatus | Sì | ||
| digitare | Enum | Tipo dell'elemento. Sempre apply_patch_call.Valori possibili: apply_patch_call |
Sì |
OpenAI.ConversationItemApplyPatchToolCallOutput
Output generato da una chiamata di applicazione dello strumento patch.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| call_id | Stringa | ID univoco della chiamata dello strumento applica patch generata dal modello. | Sì | |
| created_by | Stringa | ID dell'entità che ha creato l'output della chiamata dello strumento. | No | |
| Id | Stringa | ID univoco dell'output della chiamata dello strumento patch apply. Popolata quando questo elemento viene restituito tramite API. | Sì | |
| Output | stringa o null | No | ||
| Stato | OpenAI.ApplyPatchCallOutputStatus | Sì | ||
| digitare | Enum | Tipo dell'elemento. Sempre apply_patch_call_output.Valori possibili: apply_patch_call_output |
Sì |
OpenAI.ConversationItemCodeInterpreterToolCall
Una chiamata a uno strumento per eseguire codice.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Codice | stringa o null | Sì | ||
| container_id | Stringa | ID del contenitore usato per eseguire il codice. | Sì | |
| Id | Stringa | L'ID univoco dello strumento interprete del codice chiama. | Sì | |
| Uscite | matrice di OpenAI.CodeInterpreterOutputLogs o OpenAI.CodeInterpreterOutputImage o null | Sì | ||
| Stato | Enum | Lo stato dello strumento di interprete del codice chiamato. I valori validi sono in_progress, completedincomplete, interpreting, e failed.Valori possibili: in_progress, completed, incomplete, interpreting, failed |
Sì | |
| digitare | Enum | Il tipo che chiama lo strumento dell'interprete del codice. Sempre code_interpreter_call.Valori possibili: code_interpreter_call |
Sì |
OpenAI.ConversationItemComputerToolCall
Un richiamo a uno strumento per l'uso del computer. Per altre informazioni, vedere la guida all'uso del computer .
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Azione | OpenAI.ComputerAction | Sì | ||
| call_id | Stringa | Un identificatore usato quando si risponde alla chiamata dello strumento con output. | Sì | |
| Id | Stringa | L'ID unico della chiamata computerizzata. | Sì | |
| pending_safety_checks | matrice di OpenAI.ComputerCallSafetyCheckParam | I controlli di sicurezza in attesa per la chiamata al computer. | Sì | |
| Stato | Enum | Lo stato dell'oggetto. Uno di in_progress, completedoincomplete. Popolati quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
Sì | |
| digitare | Enum | Il tipo di chiamata al computer. Sempre computer_call.Valori possibili: computer_call |
Sì |
OpenAI.ConversationItemComputerToolCallOutputResource
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| acknowledged_safety_checks | matrice di OpenAI.ComputerCallSafetyCheckParam | I controlli di sicurezza segnalati dall'API che sono stati riconosciuti dal Sviluppatore. |
No | |
| call_id | Stringa | L'ID della chiamata dello strumento informatico che ha prodotto l'output. | Sì | |
| Id | Stringa | L'ID dell'output della chiamata dello strumento informatico. | No | |
| Output | OpenAI.ComputerScreenshotImage | Un'immagine screenshot del computer usata con lo strumento di uso del computer. | Sì | |
| Stato | Enum | Lo stato del messaggio inserito. Uno di in_progress, completedoincomplete. Popolati quando gli input input vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
No | |
| digitare | Enum | Il tipo di output della chiamata dello strumento informatico. Sempre computer_call_output.Valori possibili: computer_call_output |
Sì |
OpenAI.ConversationItemCustomToolCall
Chiamata a uno strumento personalizzato creato dal modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| call_id | Stringa | Identificatore usato per eseguire il mapping di questa chiamata personalizzata a un output di chiamata dello strumento. | Sì | |
| Id | Stringa | ID univoco della chiamata dello strumento personalizzato nella piattaforma OpenAI. | No | |
| Input | Stringa | Input per la chiamata personalizzata dello strumento generata dal modello. | Sì | |
| Nome | Stringa | Nome dello strumento personalizzato chiamato. | Sì | |
| digitare | Enum | Tipo di chiamata allo strumento personalizzato. Sempre custom_tool_call.Valori possibili: custom_tool_call |
Sì |
OpenAI.ConversationItemCustomToolCallOutput
L'output di una chiamata personalizzata dello strumento dal codice, che viene inviato al modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| call_id | Stringa | ID chiamata, usato per eseguire il mapping dell'output della chiamata di questo strumento personalizzato a una chiamata di strumento personalizzata. | Sì | |
| Id | Stringa | ID univoco dell'output delle chiamate dello strumento personalizzato nella piattaforma OpenAI. | No | |
| Output | stringa o matrice di OpenAI.FunctionAndCustomToolCallOutput | Output della chiamata dello strumento personalizzato generata dal codice. Può essere una stringa o un elenco di contenuto di output. |
Sì | |
| digitare | Enum | Tipo dell'output delle chiamate dello strumento personalizzato. Sempre custom_tool_call_output.Valori possibili: custom_tool_call_output |
Sì |
OpenAI.ConversationItemFileSearchToolCall
I risultati di uno strumento di ricerca file chiamano. Per altre informazioni, vedere la guida alla ricerca di file .
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Id | Stringa | L'ID univoco dello strumento di ricerca file chiama. | Sì | |
| Query | matrice di stringhe | Le query usate per cercare file. | Sì | |
| Risultati | matrice di OpenAI.FileSearchToolCallResults o null | No | ||
| Stato | Enum | Lo stato dello strumento di ricerca file chiamato. Uno di in_progress,searching, incomplete o failed,Valori possibili: in_progress, searching, completed, incomplete, failed |
Sì | |
| digitare | Enum | Il tipo di chiamata dello strumento di ricerca file. Sempre file_search_call.Valori possibili: file_search_call |
Sì |
OpenAI.ConversationItemFunctionShellCall
Chiamata dello strumento che esegue uno o più comandi della shell in un ambiente gestito.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Azione | OpenAI.FunctionShellAction | Eseguire un comando shell. | Sì | |
| Comandi └* | matrice di stringhe | Sì | ||
| └max_output_length | integer o null | Sì | ||
| └timeout_ms | integer o null | Sì | ||
| call_id | Stringa | ID univoco della chiamata dello strumento shell generata dal modello. | Sì | |
| created_by | Stringa | ID dell'entità che ha creato questa chiamata allo strumento. | No | |
| Id | Stringa | ID univoco della chiamata dello strumento shell. Popolata quando questo elemento viene restituito tramite API. | Sì | |
| Stato | OpenAI.LocalShellCallStatus | Sì | ||
| digitare | Enum | Tipo dell'elemento. Sempre shell_call.Valori possibili: shell_call |
Sì |
OpenAI.ConversationItemFunctionShellCallOutput
Output di una chiamata dello strumento shell generata.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| call_id | Stringa | ID univoco della chiamata dello strumento shell generata dal modello. | Sì | |
| created_by | Stringa | Identificatore dell'attore che ha creato l'elemento. | No | |
| Id | Stringa | ID univoco dell'output della chiamata della shell. Popolata quando questo elemento viene restituito tramite API. | Sì | |
| max_output_length | integer o null | Sì | ||
| Output | matrice di OpenAI.FunctionShellCallOutputContent | Matrice di contenuti di output delle chiamate shell | Sì | |
| digitare | Enum | Tipo dell'output delle chiamate della shell. Sempre shell_call_output.Valori possibili: shell_call_output |
Sì |
OpenAI.ConversationItemFunctionToolCallOutputResource
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| call_id | Stringa | L'ID univoco della chiamata dello strumento funzionale generata dal modello. | Sì | |
| Id | Stringa | L'ID unico dell'output della chiamata dello strumento funzionale. Popolato quando questo elemento viene restituito tramite l'API. |
No | |
| Output | stringa o matrice di OpenAI.FunctionAndCustomToolCallOutput | Output della chiamata di funzione generata dal codice. Può essere una stringa o un elenco di contenuto di output. |
Sì | |
| Stato | Enum | Lo stato dell'oggetto. Uno di in_progress, completedoincomplete. Popolati quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
No | |
| digitare | Enum | Il tipo di funzione chiama output dello strumento. Sempre function_call_output.Valori possibili: function_call_output |
Sì |
OpenAI.ConversationItemFunctionToolCallResource
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Argomenti | Stringa | Una stringa JSON degli argomenti da passare alla funzione. | Sì | |
| call_id | Stringa | L'ID univoco della chiamata dello strumento funzionale generata dal modello. | Sì | |
| Id | Stringa | L'ID univoco dello strumento di funzione chiama. | No | |
| Nome | Stringa | Il nome della funzione da eseguire. | Sì | |
| Stato | Enum | Lo stato dell'oggetto. Uno di in_progress, completedoincomplete. Popolati quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
No | |
| digitare | Enum | Il tipo di chiamata dello strumento funzionale. Sempre function_call.Valori possibili: function_call |
Sì |
OpenAI.ConversationItemImageGenToolCall
Richiesta di generazione di immagini effettuata dal modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Id | Stringa | ID univoco della chiamata di generazione dell'immagine. | Sì | |
| Risultato | stringa o null | Sì | ||
| Stato | Enum | Stato della chiamata di generazione dell'immagine. Valori possibili: in_progress, completed, generating, failed |
Sì | |
| digitare | Enum | Tipo della chiamata di generazione dell'immagine. Sempre image_generation_call.Valori possibili: image_generation_call |
Sì |
OpenAI.ConversationItemList
Elenco di elementi di conversazione.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | matrice di OpenAI.ConversationItem | Elenco di elementi della conversazione. | Sì | |
| first_id | Stringa | L'ID del primo elemento della lista. | Sì | |
| has_more | Boolean | Se ci sono altri articoli disponibili. | Sì | |
| last_id | Stringa | L'ID dell'ultimo elemento della lista. | Sì | |
| Oggetto | Enum | Il tipo di oggetto restituito deve essere list.Valori possibili: list |
Sì |
OpenAI.ConversationItemLocalShellToolCall
Chiamata dello strumento per eseguire un comando nella shell locale.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Azione | OpenAI.LocalShellExecAction | Eseguire un comando shell nel server. | Sì | |
| call_id | Stringa | ID univoco della chiamata dello strumento shell locale generata dal modello. | Sì | |
| Id | Stringa | ID univoco della chiamata della shell locale. | Sì | |
| Stato | Enum | Stato della chiamata della shell locale. Valori possibili: in_progress, completed, incomplete |
Sì | |
| digitare | Enum | Tipo di chiamata della shell locale. Sempre local_shell_call.Valori possibili: local_shell_call |
Sì |
OpenAI.ConversationItemLocalShellToolCallOutput
Output di una chiamata allo strumento shell locale.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Id | Stringa | ID univoco della chiamata dello strumento shell locale generata dal modello. | Sì | |
| Output | Stringa | Stringa JSON dell'output della chiamata allo strumento shell locale. | Sì | |
| Stato | stringa o null | No | ||
| digitare | Enum | Tipo dell'output delle chiamate dello strumento shell locale. Sempre local_shell_call_output.Valori possibili: local_shell_call_output |
Sì |
OpenAI.ConversationItemMcpApprovalRequest
Richiesta di approvazione umana di una chiamata a uno strumento.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Argomenti | Stringa | Stringa JSON di argomenti per lo strumento. | Sì | |
| Id | Stringa | ID univoco della richiesta di approvazione. | Sì | |
| Nome | Stringa | Nome dello strumento da eseguire. | Sì | |
| server_label | Stringa | Etichetta del server MCP che effettua la richiesta. | Sì | |
| digitare | Enum | Tipo dell'elemento. Sempre mcp_approval_request.Valori possibili: mcp_approval_request |
Sì |
OpenAI.ConversationItemMcpApprovalResponseResource
Risposta a una richiesta di approvazione MCP.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| approval_request_id | Stringa | ID della richiesta di approvazione a cui viene inviata la risposta. | Sì | |
| Approvare | Boolean | Indica se la richiesta è stata approvata. | Sì | |
| Id | Stringa | ID univoco della risposta di approvazione | Sì | |
| Motivo | stringa o null | No | ||
| digitare | Enum | Tipo dell'elemento. Sempre mcp_approval_response.Valori possibili: mcp_approval_response |
Sì |
OpenAI.ConversationItemMcpListTools
Elenco di strumenti disponibili in un server MCP.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Errore | stringa o null | No | ||
| Id | Stringa | ID univoco dell'elenco. | Sì | |
| server_label | Stringa | Etichetta del server MCP. | Sì | |
| Strumenti | matrice di OpenAI.MCPListToolsTool | Strumenti disponibili nel server. | Sì | |
| digitare | Enum | Tipo dell'elemento. Sempre mcp_list_tools.Valori possibili: mcp_list_tools |
Sì |
OpenAI.ConversationItemMcpToolCall
Chiamata di uno strumento in un server MCP.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| approval_request_id | stringa o null | No | ||
| Argomenti | Stringa | Stringa JSON degli argomenti passati allo strumento. | Sì | |
| Errore | stringa o null | No | ||
| Id | Stringa | ID univoco della chiamata allo strumento. | Sì | |
| Nome | Stringa | Nome dello strumento eseguito. | Sì | |
| Output | stringa o null | No | ||
| server_label | Stringa | Etichetta del server MCP che esegue lo strumento. | Sì | |
| Stato | OpenAI.MCPToolCallStatus | No | ||
| digitare | Enum | Tipo dell'elemento. Sempre mcp_call.Valori possibili: mcp_call |
Sì |
OpenAI.ConversationItemMessage
Messaggio da o verso il modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Contenuto | matrice di OpenAI.InputTextContent o OpenAI.OutputTextContent o OpenAI.TextContent o OpenAI.SummaryTextContent o OpenAI.ReasoningTextContent o OpenAI.RefusalContent o OpenAI.InputImageContent o OpenAI.ComputerScreenshotContent o OpenAI.InputFileContent | Contenuto del messaggio | Sì | |
| Id | Stringa | ID univoco del messaggio. | Sì | |
| Ruolo | OpenAI.MessageRole | Sì | ||
| Stato | OpenAI.MessageStatus | Sì | ||
| digitare | Enum | Tipo del messaggio. Imposta sempre su message.Valori possibili: message |
Sì |
OpenAI.ConversationItemReasoningItem
Una descrizione della catena di pensiero utilizzata da un modello di ragionamento durante la generazione di una risposta. Assicurarsi di includere questi elementi nell'API input Risposte per i turni successivi di una conversazione se si gestisce manualmente il contesto.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Contenuto | matrice di OpenAI.ReasoningTextContent | Ragionamento del contenuto del testo. | No | |
| encrypted_content | stringa o null | No | ||
| Id | Stringa | L'identificatore unico del contenuto di ragionamento. | Sì | |
| Stato | Enum | Lo stato dell'oggetto. Uno di in_progress, completedoincomplete. Popolati quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
No | |
| Riepilogo | matrice di OpenAI.Summary | Ragionamento del contenuto di riepilogo. | Sì | |
| digitare | Enum | Il tipo di oggetto. Sempre reasoning.Valori possibili: reasoning |
Sì |
OpenAI.ConversationItemType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | messagefunction_callfunction_call_outputfile_search_callweb_search_callimage_generation_callcomputer_callcomputer_call_outputreasoningcode_interpreter_calllocal_shell_calllocal_shell_call_outputshell_callshell_call_outputapply_patch_callapply_patch_call_outputmcp_list_toolsmcp_approval_requestmcp_approval_responsemcp_callcustom_tool_callcustom_tool_call_output |
OpenAI.ConversationItemWebSearchToolCall
Risultati di una chiamata allo strumento di ricerca Web. Per altre informazioni, vedere la guida alla ricerca Web .
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Azione | OpenAI.WebSearchActionSearch o OpenAI.WebSearchActionOpenPage o OpenAI.WebSearchActionFind | Oggetto che descrive l'azione specifica eseguita in questa chiamata di ricerca Web. Include informazioni dettagliate sul modo in cui il modello ha usato il Web (ricerca, open_page, ricerca). |
Sì | |
| Id | Stringa | ID univoco della chiamata dello strumento di ricerca Web. | Sì | |
| Stato | Enum | Stato della chiamata dello strumento di ricerca Web. Valori possibili: in_progress, searching, completed, failed |
Sì | |
| digitare | Enum | Tipo di chiamata dello strumento di ricerca Web. Sempre web_search_call.Valori possibili: web_search_call |
Sì |
OpenAI.ConversationParam
Conversazione a cui appartiene questa risposta. Gli elementi di questa conversazione vengono anteporti a input_items per questa richiesta di risposta.
Gli elementi di input e gli elementi di output di questa risposta vengono aggiunti automaticamente a questa conversazione al termine della risposta.
Tipo: string o OpenAI.ConversationParam-2
Conversazione a cui appartiene questa risposta. Gli elementi di questa conversazione vengono anteporti a input_items per questa richiesta di risposta.
Gli elementi di input e gli elementi di output di questa risposta vengono aggiunti automaticamente a questa conversazione al termine della risposta.
OpenAI.ConversationParam-2
Conversazione a cui appartiene questa risposta.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Id | Stringa | ID univoco della conversazione. | Sì |
OpenAI.ConversationReference
Conversazione a cui appartiene questa risposta. Gli elementi di input e gli elementi di output di questa risposta sono stati aggiunti automaticamente a questa conversazione.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Id | Stringa | ID univoco della conversazione a cui è stata associata la risposta. | Sì |
OpenAI.ConversationResource
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| created_at | Intero | Ora in cui è stata creata la conversazione, misurata in secondi dall'epoca Unix. | Sì | |
| Id | Stringa | ID univoco della conversazione. | Sì | |
| Metadati | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard. I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri. |
Sì | ||
| Oggetto | Enum | Il tipo di oggetto, che è sempre conversation.Valori possibili: conversation |
Sì |
OpenAI.CreateChatCompletionRequestAudio
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Formato | Enum | Valori possibili: wav, aac, mp3, flac, opus, pcm16 |
Sì | |
| Voce | OpenAI.VoiceIdsShared | Sì |
OpenAI.CreateChatCompletionRequestResponseFormat
Un oggetto che specifica il formato che il modello deve generare.
L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.
Impostando per { "type": "json_object" } abilita la vecchia modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferito per i modelli che lo supportano.
Discriminare per OpenAI.CreateChatCompletionRequestResponseFormat
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
json_schema |
OpenAI.ResponseFormatJsonSchema |
text |
OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatText |
json_object |
OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatJsonObject |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.CreateChatCompletionRequestResponseFormatType | Sì |
OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatJsonObject
Formato della risposta dell'oggetto JSON. Metodo precedente di generazione di risposte JSON.
L'uso json_schema di è consigliato per i modelli che lo supportano. Si noti che il modello non genererà JSON senza un messaggio di sistema o utente che indica a tale scopo.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Il tipo di formato di risposta da definire. Sempre json_object.Valori possibili: json_object |
Sì |
OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatText
Formato di risposta predefinito. Usato per generare risposte di testo.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Il tipo di formato di risposta da definire. Sempre text.Valori possibili: text |
Sì |
OpenAI.CreateChatCompletionRequestResponseFormatType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | textjson_schemajson_object |
OpenAI.CreateChatCompletionResponseChoices
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| content_filter_results | AzureContentFilterResultForChoice | Risultato di un filtro contenuto per un singolo elemento di risposta prodotto da un sistema di intelligenza artificiale generativo. | No | |
| finish_reason | Enum | Valori possibili: stop, length, tool_calls, content_filter, function_call |
Sì | |
| Indice | Intero | Sì | ||
| logprobs | OpenAI.CreateChatCompletionResponseChoicesLogprobs o null | Sì | ||
| Messaggio | OpenAI.ChatCompletionResponseMessage | Se viene richiesta la modalità di output audio, questo oggetto contiene dati sulla risposta audio del modello. |
Sì |
OpenAI.CreateChatCompletionResponseChoicesLogprobs
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Contenuto | matrice di OpenAI.ChatCompletionTokenLogprob o null | Sì | ||
| Rifiuto | matrice di OpenAI.ChatCompletionTokenLogprob o null | Sì |
OpenAI.CreateChatCompletionStreamResponseChoices
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Delta | OpenAI.ChatCompletionStreamResponseDelta | Un delta di completamento della chat generato dalle risposte del modello in streaming. | Sì | |
| finish_reason | stringa o null | Sì | ||
| Indice | Intero | Sì | ||
| logprobs | OpenAI.CreateChatCompletionStreamResponseChoicesLogprobs o null | No |
OpenAI.CreateChatCompletionStreamResponseChoicesLogprobs
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Contenuto | matrice di OpenAI.ChatCompletionTokenLogprob o null | Sì | ||
| Rifiuto | matrice di OpenAI.ChatCompletionTokenLogprob o null | Sì |
OpenAI.CreateCompletionResponseChoices
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| content_filter_results | AzureContentFilterResultForChoice | Risultato di un filtro contenuto per un singolo elemento di risposta prodotto da un sistema di intelligenza artificiale generativo. | No | |
| finish_reason | Enum | Valori possibili: stop, length, content_filter |
Sì | |
| Indice | Intero | Sì | ||
| logprobs | OpenAI.CreateCompletionResponseChoicesLogprobs o null | Sì | ||
| Testo | Stringa | Sì |
OpenAI.CreateCompletionResponseChoicesLogprobs
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| text_offset | matrice di numeri interi | No | ||
| token_logprobs | matrice di numeri | No | ||
| Token | matrice di stringhe | No | ||
| top_logprobs | matrice di oggetti | No |
OpenAI.CreateContainerBody
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| expires_after | OpenAI.CreateContainerBodyExpiresAfter | No | ||
| Ancoraggio └* | Enum | Valori possibili: last_active_at |
Sì | |
| └* minuti | Intero | Sì | ||
| file_ids | matrice di stringhe | ID di file da copiare nel contenitore. | No | |
| memory_limit | Enum | Limite di memoria facoltativo per il contenitore. Il valore predefinito è "1g". Valori possibili: 1g, 4g, 16g, 64g |
No | |
| Nome | Stringa | Nome del contenitore da creare. | Sì |
OpenAI.CreateContainerBodyExpiresAfter
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| ancora | Enum | Valori possibili: last_active_at |
Sì | |
| Minuti | Intero | Sì |
OpenAI.CreateContainerFileBody
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| File | Oggetto File (non nome file) da caricare. | No | ||
| File_id | Stringa | Nome del file da creare. | No |
OpenAI.CreateConversationBody
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Elementi | matrice di OpenAI.InputItem o null | No | ||
| Metadati | OpenAI.Metadata o Null | No |
OpenAI.CreateConversationItemsParametersBody
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Elementi | matrice di OpenAI.InputItem | Sì |
OpenAI.CreateEmbeddingRequest
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dimensioni | Intero | Il numero di dimensioni che dovrebbero avere gli embedding di output risultanti. Supportato solo nei text-embedding-3 modelli e nei modelli successivi.Vincoli: min: 1 |
No | |
| encoding_format | Enum | Il formato per restituire gli embedding. Può essere uno o floatl'altro base64 o .Valori possibili: float, base64 |
No | |
| Input | stringa o matrice di stringhe o matrice di numeri interi o matrice di matrice | Input text da incorporare, codificato come stringa o array di token. Per incorporare più input in una singola richiesta, passa un array di stringhe o array di token. L'input non deve superare i token di input massimi per il modello (8.192 token per tutti i modelli di incorporamento), non può essere una stringa vuota e qualsiasi matrice deve avere dimensioni di 2.048 o meno. Codice Python di esempio per il conteggio dei token. Oltre al limite di token per input, tutti i modelli di incorporamento applicano un massimo di 300.000 token sommati in tutti gli input in una singola richiesta. | Sì | |
| Modello | Stringa | ID del modello da utilizzare. È possibile usare l'API List models (Elenco modelli ) per visualizzare tutti i modelli disponibili o vedere la panoramica del modello per le descrizioni. | Sì | |
| Utente | Stringa | Altre informazioni. | No |
OpenAI.CreateEmbeddingResponse
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | matrice di OpenAI.Embedding | Elenco di incorporamenti generati dal modello. | Sì | |
| Modello | Stringa | Nome del modello utilizzato per generare l'incorporamento. | Sì | |
| Oggetto | Enum | Tipo di oggetto, che è sempre "list". Valori possibili: list |
Sì | |
| Utilizzo | OpenAI.CreateEmbeddingResponseUsage | Sì | ||
| └prompt_tokens | Intero | Sì | ||
| └total_tokens | Intero | Sì |
OpenAI.CreateEmbeddingResponseUsage
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| prompt_tokens | Intero | Sì | ||
| total_tokens | Intero | Sì |
OpenAI.CreateEvalCompletionsRunDataSource
Un oggetto CompletionsRunDataSource che descrive una configurazione di campionamento di modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| input_messages | OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesTemplate o OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesItemReference | Utilizzato durante il campionamento da un modello. Determina la struttura dei messaggi passati nel modello. Può essere un riferimento a una traiettoria predefinita (ad esempio, item.input_trajectory) o a un modello con riferimenti variabili allo spazio dei item nomi. |
No | |
| Modello | Stringa | Nome del modello da usare per la generazione di completamenti (ad esempio "o3-mini"). | No | |
| sampling_params | AzureCompletionsSamplingParams | Parametri di campionamento per controllare il comportamento dei completamenti. | No | |
| fonte | OpenAI.EvalJsonlFileContentSource o OpenAI.EvalJsonlFileIdSource o OpenAI.EvalStoredCompletionsSource | Determina il popolamento dello item spazio dei nomi nell'origine dati di questa esecuzione. |
Sì | |
| digitare | Enum | Il tipo di fonte di dati di run. Sempre completions.Valori possibili: completions |
Sì |
OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesItemReference
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| item_reference | Stringa | Sì | ||
| digitare | Enum | Valori possibili: item_reference |
Sì |
OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesTemplate
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Modello | matrice di OpenAI.EasyInputMessage o OpenAI.EvalItem | Sì | ||
| digitare | Enum | Valori possibili: template |
Sì |
OpenAI.CreateEvalCompletionsRunDataSourceSamplingParams
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| max_completion_tokens | Intero | No | ||
| reasoning_effort | OpenAI.ReasoningEffort | Vincola lo sforzo sul ragionamento per ragionamento dei modelli. I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurrel'impegno di ragionamento può comportare risposte più veloci e meno token usati sul ragionamento in una risposta. - gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max. |
No | |
| response_format | OpenAI.ResponseFormatText o OpenAI.ResponseFormatJsonSchema o OpenAI.ResponseFormatJsonObject | No | ||
| Seme | Intero | Un valore di inizializzazione inizializza la casualità durante il campionamento. | No | 42 |
| Temperatura | Numero | Una temperatura più alta aumenta la casualità nelle uscite. | No | 1 |
| Strumenti | matrice di OpenAI.ChatCompletionTool | No | ||
| top_p | Numero | Un'alternativa alla temperatura per il campionamento del nucleo; La versione 1.0 include tutti i gettoni. | No | 1 |
OpenAI.CreateEvalCustomDataSourceConfig
Un oggetto CustomDataSourceConfig che definisce lo schema per la sorgente dati utilizzata per la valutazione viene eseguito. Questo schema viene usato per definire la forma dei dati che saranno:
- Usato per definire i criteri di test e
- Quali dati sono necessari durante la creazione di un'esecuzione
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| include_sample_schema | Boolean | Se la valutazione dovrebbe aspettarsi che tu popoli il namespace campione (cioè generando risposte dalla tua fonte dati)? | No | |
| item_schema | Oggetto | Lo schema json per ogni riga nella sorgente dati. | Sì | |
| digitare | Enum | Il tipo di fonte di dati. Sempre custom.Valori possibili: custom |
Sì |
OpenAI.CreateEvalItem
Un messaggio in chat che costituisce il prompt o il contesto. Può includere riferimenti a variabili allo spazio dei item nomi, ad esempio {{item.name}}.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Contenuto | Stringa | Il contenuto del messaggio. | Sì | |
| Ruolo | Stringa | Ruolo del messaggio ,ad esempio "system", "assistant", "user". | Sì |
OpenAI.CreateEvalJsonlRunDataSource
Un oggetto JsonlRunDataSource con questo specifica un file JSONL che corrisponde all'evalazione
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| fonte | OpenAI.EvalJsonlFileContentSource o OpenAI.EvalJsonlFileIdSource | Determina il popolamento dello item spazio dei nomi nell'origine dati. |
Sì | |
| digitare | Enum | Il tipo di fonte di dati. Sempre jsonl.Valori possibili: jsonl |
Sì |
OpenAI.CreateEvalLabelModelGrader
Un oggetto LabelModelGrader che utilizza un modello per assegnare etichette a ogni elemento nella valutazione.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Input | matrice di OpenAI.CreateEvalItem | Un elenco dei messaggi in chat che costituiscono il prompt o il contesto. Può includere riferimenti a variabili allo spazio dei item nomi, ad esempio {{item.name}}. |
Sì | |
| Etichette | matrice di stringhe | Le etichette da classificare per ogni articolo nella valutazione. | Sì | |
| Modello | Stringa | Il modello da utilizzare per la valutazione. Deve supportare output strutturati. | Sì | |
| Nome | Stringa | Il nome del correttore. | Sì | |
| passing_labels | matrice di stringhe | Le etichette che indicano un risultato di superamento. Deve essere un sottoinsieme di etichette. | Sì | |
| digitare | Enum | Il tipo di oggetto, che è sempre label_model.Valori possibili: label_model |
Sì |
OpenAI.CreateEvalLogsDataSourceConfig
Configurazione dell'origine dati che specifica la proprietà dei metadati della query di log.
Di solito si tratta di metadati come usecase=chatbot o prompt-version=v2, ecc.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Metadati | Oggetto | Filtri metadati per la sorgente di dati dei log. | No | |
| digitare | Enum | Il tipo di fonte di dati. Sempre logs.Valori possibili: logs |
Sì |
OpenAI.CreateEvalResponsesRunDataSource
Oggetto ResponsesRunDataSource che descrive una configurazione di campionamento del modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| input_messages | OpenAI.CreateEvalResponsesRunDataSourceInputMessagesTemplate o OpenAI.CreateEvalResponsesRunDataSourceInputMessagesItemReference | Utilizzato durante il campionamento da un modello. Determina la struttura dei messaggi passati nel modello. Può essere un riferimento a una traiettoria predefinita (ad esempio, item.input_trajectory) o a un modello con riferimenti variabili allo spazio dei item nomi. |
No | |
| Modello | Stringa | Nome del modello da usare per la generazione di completamenti (ad esempio "o3-mini"). | No | |
| sampling_params | AzureResponsesSamplingParams | Parametri di campionamento per controllare il comportamento delle risposte. | No | |
| fonte | OpenAI.EvalJsonlFileContentSource o OpenAI.EvalJsonlFileIdSource o OpenAI.EvalResponsesSource | Determina il popolamento dello item spazio dei nomi nell'origine dati di questa esecuzione. |
Sì | |
| digitare | Enum | Il tipo di fonte di dati di run. Sempre responses.Valori possibili: responses |
Sì |
OpenAI.CreateEvalResponsesRunDataSourceInputMessagesItemReference
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| item_reference | Stringa | Sì | ||
| digitare | Enum | Valori possibili: item_reference |
Sì |
OpenAI.CreateEvalResponsesRunDataSourceInputMessagesTemplate
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Modello | matrice di oggetti o OpenAI.EvalItem | Sì | ||
| digitare | Enum | Valori possibili: template |
Sì |
OpenAI.CreateEvalResponsesRunDataSourceSamplingParams
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| reasoning_effort | OpenAI.ReasoningEffort | Vincola lo sforzo sul ragionamento per ragionamento dei modelli. I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurrel'impegno di ragionamento può comportare risposte più veloci e meno token usati sul ragionamento in una risposta. - gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max. |
No | |
| Seme | Intero | Un valore di inizializzazione inizializza la casualità durante il campionamento. | No | 42 |
| Temperatura | Numero | Una temperatura più alta aumenta la casualità nelle uscite. | No | 1 |
| Testo | OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText | No | ||
| Strumenti | matrice di OpenAI.Tool | No | ||
| top_p | Numero | Un'alternativa alla temperatura per il campionamento del nucleo; La versione 1.0 include tutti i gettoni. | No | 1 |
OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Formato | OpenAI.TextResponseFormatConfiguration | Un oggetto che specifica il formato che il modello deve generare. La configurazione { "type": "json_schema" } abilita output strutturati,che garantisce che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere Il formato predefinito è { "type": "text" } senza opzioni aggiuntive.*Non consigliato per i modelli gpt-4o e versioni successive:** L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, chegarantisce che il messaggio generato dal modello sia JSON valido. Utilizzando json_schemaè preferibile per i modelli che lo supportano. |
No |
OpenAI.CreateEvalRunRequest
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| data_source | OpenAI.CreateEvalJsonlRunDataSource o OpenAI.CreateEvalCompletionsRunDataSource o OpenAI.CreateEvalResponsesRunDataSource | Dettagli sull'origine dati dell'esecuzione. | Sì | |
| Metadati | OpenAI.Metadata o Null | No | ||
| Nome | Stringa | Il nome della corsa. | No |
OpenAI.CreateEvalStoredCompletionsDataSourceConfig
Deprecato a favore di LogsDataSourceConfig.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Metadati | Oggetto | Filtri di metadati per l'origine dati di completamento archiviati. | No | |
| digitare | Enum | Il tipo di fonte di dati. Sempre stored_completions.Valori possibili: stored_completions |
Sì |
OpenAI.CreateFileRequest
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| expires_after | Oggetto | Sì | ||
| Ancoraggio └* | AzureFileExpiryAnchor | Sì | ||
| └> secondi | Intero | Sì | ||
| File | Oggetto File (non nome file) da caricare. | Sì | ||
| Scopo | Enum | Scopo previsto del file caricato. Uno di: - assistants: usato nell'API Assistants - batch: Usato nell'API Batch - fine-tune: usato per l'ottimizzazione- evals: usato per set di dati evalValori possibili: assistants, batch, fine-tune, evals |
Sì |
OpenAI.CreateFineTuningCheckpointPermissionRequest
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| project_ids | matrice di stringhe | Identificatori del progetto a cui concedere l'accesso. | Sì |
OpenAI.CreateFineTuningJobRequest
Modelli validi:
babbage-002
davinci-002
gpt-3.5-turbo
gpt-4o-mini
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| iperparametri | OpenAI.CreateFineTuningJobRequestHyperparameters | No | ||
| └batch_size | stringa o integer | No | Automatico | |
| └learning_rate_multiplier | stringa o numero | No | ||
| └n_epochs | stringa o integer | No | Automatico | |
| Integrazioni | matrice di OpenAI.CreateFineTuningJobRequestIntegrations o null | Elenco di integrazioni da abilitare per il processo di ottimizzazione. | No | |
| Metadati | OpenAI.Metadata o Null | No | ||
| Metodo | OpenAI.FineTuneMethod | Metodo utilizzato per l'ottimizzazione. | No | |
| Modello | string (vedere modelli validi di seguito) | Nome del modello da ottimizzare. È possibile selezionare una delle modelli supportati. |
Sì | |
| Seme | integer o null | Il valore di inizializzazione controlla la riproducibilità del processo. Passare gli stessi parametri seed e job dovrebbe produrre gli stessi risultati, ma può differire in rari casi. Se non viene specificato un valore di inizializzazione, ne verrà generato uno automaticamente. |
No | |
| Suffisso | stringa o null | Stringa di un massimo di 64 caratteri che verrà aggiunta al nome del modello ottimizzato. Ad esempio, un suffix valore di "custom-model-name" produce un nome di modello come ft:gpt-4o-mini:openai:custom-model-name:7p4lURel. |
No | |
| training_file | Stringa | ID di un file caricato che contiene i dati di training. Per informazioni su come caricare un file, vedere Caricare un file. Il set di dati deve essere formattato come file JSONL. Inoltre, è necessario caricare il file con lo scopo fine-tune.Il contenuto del file deve variare a seconda che il modello usi la chat, il formato dei completamenti o se il metodo di ottimizzazione usa il formato preferenza . Per altri dettagli, vedere la guida all'ottimizzazione . |
Sì | |
| validation_file | stringa o null | ID di un file caricato che contiene i dati di convalida. Se si specifica questo file, i dati vengono usati per generare la convalida metriche periodicamente durante l'ottimizzazione. Queste metriche possono essere visualizzate in file dei risultati di ottimizzazione. Gli stessi dati non devono essere presenti sia nei file di training che in quello di convalida. Il set di dati deve essere formattato come file JSONL. È necessario caricare il file con lo scopo fine-tune.Per altri dettagli, vedere la guida all'ottimizzazione . |
No |
OpenAI.CreateFineTuningJobRequestHyperparameters
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| batch_size | stringa o integer | No | ||
| learning_rate_multiplier | stringa o numero | No | ||
| n_epochs | stringa o integer | No |
OpenAI.CreateFineTuningJobRequestIntegrations
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Valori possibili: wandb |
Sì | |
| wandb | OpenAI.CreateFineTuningJobRequestIntegrationsWandb | Sì |
OpenAI.CreateFineTuningJobRequestIntegrationsWandb
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Entità | stringa o null | No | ||
| Nome | stringa o null | No | ||
| Progetto | Stringa | Sì | ||
| Tag | matrice di stringhe | No |
OpenAI.CreateMessageRequest
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Allegati | matrice di OpenAI.CreateMessageRequestAttachments o null | No | ||
| Contenuto | stringa o matrice di OpenAI.MessageContentImageFileObject o OpenAI.MessageContentImageUrlObject o OpenAI.MessageRequestContentTextObject | Sì | ||
| Metadati | OpenAI.Metadata o Null | No | ||
| Ruolo | Enum | Il ruolo dell'entità che crea il messaggio. I valori consentiti includono: - user: Indica che il messaggio è stato inviato da un utente reale e dovrebbe essere usato nella maggior parte dei casi per rappresentare messaggi generati dall'utente.- assistant: Indica che il messaggio è stato generato dall'assistente. Usa questo valore per inserire messaggi dall'assistente nella conversazione.Valori possibili: user, assistant |
Sì |
OpenAI.CreateMessageRequestAttachments
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| File_id | Stringa | No | ||
| Strumenti | matrice di OpenAI.AssistantToolsCode o OpenAI.AssistantToolsFileSearchTypeOnly | No |
OpenAI.CreateResponse
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Priorità bassa | booleano o null | No | ||
| Conversazione | OpenAI.ConversationParam o null | No | ||
| Includono | matrice di OpenAI.IncludeEnum o null | No | ||
| Input | OpenAI.InputParam | Input di testo, immagine o file al modello, utilizzati per generare una risposta. Ulteriori informazioni: - Input di testo e output - Input dell'immagine - Input di file - Stato conversazione - Chiamata di funzione |
No | |
| Istruzioni | stringa o null | No | ||
| max_output_tokens | integer o null | No | ||
| max_tool_calls | integer o null | No | ||
| Metadati | OpenAI.Metadata o Null | No | ||
| Modello | Stringa | ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAIoffre un'ampia gamma di modelli con diverse funzionalità, prestazioni caratteristiche e punti di prezzo. Fare riferimento alla guida al modello per esplorare e confrontare i modelli disponibili. |
No | |
| parallel_tool_calls | booleano o null | No | ||
| previous_response_id | stringa o null | No | ||
| prompt | OpenAI.Prompt | Riferimento a un modello di richiesta e alle relative variabili. Altre informazioni. |
No | |
| prompt_cache_key | Stringa | Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo.
Altre informazioni. |
No | |
| prompt_cache_retention | stringa o null | No | ||
| Ragionamento | OpenAI.Reasoning o null | No | ||
| safety_identifier | Stringa | Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI. Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni. |
No | |
| Negozio | booleano o null | No | ||
| Flusso | booleano o null | No | ||
| stream_options | OpenAI.ResponseStreamOptions o null | No | ||
| Temperatura | number o null | No | ||
| Testo | OpenAI.ResponseTextParam | Opzioni di configurazione per una risposta testuale dal modello. Può essere semplice dati JSON strutturati o di testo. Ulteriori informazioni: - Input di testo e output - Output strutturati |
No | |
| tool_choice | OpenAI.ToolChoiceParam | Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione una risposta. Vedere il tools parametro per vedere come specificare gli strumentiil modello può chiamare. |
No | |
| Strumenti | OpenAI.ToolsArray | Una serie di strumenti che il modello può chiamare mentre genera una risposta. Tu può specificare quale strumento usare impostando il tool_choice parametro .Sono supportate le categorie di strumenti seguenti: - Strumenti integrati: Strumenti forniti da OpenAI che estendono la funzionalità del modello, ad esempio la ricerca Web o ricerca di file. Altre informazioni strumenti predefiniti. - Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni Strumenti MCP. - Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente, abilitazione del modello per chiamare il proprio codice con argomenti fortemente tipizzato e output. Altre informazioni chiamata di funzione. È anche possibile usare strumenti personalizzati per chiamare il proprio codice. |
No | |
| top_logprobs | integer o null | No | ||
| top_p | number o null | No | ||
| Troncamento | stringa o null | No | ||
| Utente | stringa (deprecata) | Questo campo viene sostituito da safety_identifier e prompt_cache_key. Usare prompt_cache_key invece per mantenere le ottimizzazioni della memorizzazione nella cache.Identificatore stabile per gli utenti finali. Usato per aumentare la frequenza di riscontri nella cache migliorando il bucket di richieste simili e per consentire a OpenAI di rilevare e prevenire abusi. Altre informazioni. |
No |
OpenAI.CreateRunRequest
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| additional_instructions | stringa o null | Aggiunge istruzioni aggiuntive alla fine delle istruzioni per la corsa. Questo è utile per modificare il comportamento su base per run senza sovrascrivere altre istruzioni. | No | |
| additional_messages | matrice di OpenAI.CreateMessageRequest o null | Aggiunge messaggi aggiuntivi al thread prima di creare la run. | No | |
| assistant_id | Stringa | ID dell'assistente da usare per eseguire questa esecuzione. | Sì | |
| Istruzioni | stringa o null | Esegue l'override delle istruzioni dell'assistente. Questo è utile per modificare il comportamento su base per run. | No | |
| max_completion_tokens | integer o null | Il numero massimo di gettoni di completamento che possono essere utilizzati durante la run. L'esecuzione farà del meglio per usare solo il numero di token di completamento specificati, in più turni dell'esecuzione. Se la corsa supera il numero di token di completamento specificato, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni. |
No | |
| max_prompt_tokens | integer o null | Il numero massimo di token prompt che possono essere utilizzati durante la run. L'esecuzione farà del meglio per usare solo il numero di token di richiesta specificati, in più turni dell'esecuzione. Se la corsa supera il numero di token prompt specificati, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni. |
No | |
| Metadati | OpenAI.Metadata o Null | No | ||
| Modello | Stringa | ID del modello da utilizzare per eseguire questa esecuzione. Se qui viene fornito un valore, esso sovrascriverà il modello associato all'assistente. In caso contrario, verrà utilizzato il modello associato all'assistente. | No | |
| parallel_tool_calls | OpenAI.ParallelToolCalls | Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. | No | |
| reasoning_effort | OpenAI.ReasoningEffort | Vincola lo sforzo sul ragionamento per ragionamento dei modelli. I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurrel'impegno di ragionamento può comportare risposte più veloci e meno token usati sul ragionamento in una risposta. - gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max. |
No | |
| response_format | OpenAI.AssistantsApiResponseFormatOption | Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.Importante:* quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto. |
No | |
| Flusso | booleano o null | Se true, restituisce un flusso di eventi che avvengono durante la Run come eventi inviati dal server, terminando quando la Run entra in uno stato terminale con un data: [DONE] messaggio. |
No | |
| Temperatura | number o null | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. | No | |
| tool_choice | OpenAI.AssistantsApiToolChoiceOption | Controlla quale (se presente) strumento viene chiamato dal modello.none significa che il modello non richiamerà nessuno strumento ma invece genera un messaggio.auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.required indica che il modello deve chiamare uno o più strumenti prima di rispondere all'utente.Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo. |
No | |
| Strumenti | matrice di OpenAI.AssistantTool | Sovrascrivi gli strumenti che l'assistente può usare per questa corsa. Questo è utile per modificare il comportamento su base per run. | No | |
| top_p | number o null | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. In genere consigliamo di modificare questo o la temperatura, ma non entrambi. |
No | |
| truncation_strategy | OpenAI.TruncationObject | Controlli su come un thread verrà troncato prima dell'esecuzione. Usa questo per controllare la finestra contestuale iniziale della run. | No |
OpenAI.CreateThreadAndRunRequest
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| assistant_id | Stringa | ID dell'assistente da usare per eseguire questa esecuzione. | Sì | |
| Istruzioni | stringa o null | Sovrascrivi il messaggio di sistema predefinito dell'assistente. Questo è utile per modificare il comportamento su base per run. | No | |
| max_completion_tokens | integer o null | Il numero massimo di gettoni di completamento che possono essere utilizzati durante la run. L'esecuzione farà del meglio per usare solo il numero di token di completamento specificati, in più turni dell'esecuzione. Se la corsa supera il numero di token di completamento specificato, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni. |
No | |
| max_prompt_tokens | integer o null | Il numero massimo di token prompt che possono essere utilizzati durante la run. L'esecuzione farà del meglio per usare solo il numero di token di richiesta specificati, in più turni dell'esecuzione. Se la corsa supera il numero di token prompt specificati, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni. |
No | |
| Metadati | OpenAI.Metadata o Null | No | ||
| Modello | Stringa | ID del modello da utilizzare per eseguire questa esecuzione. Se qui viene fornito un valore, esso sovrascriverà il modello associato all'assistente. In caso contrario, verrà utilizzato il modello associato all'assistente. | No | |
| parallel_tool_calls | OpenAI.ParallelToolCalls | Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. | No | |
| response_format | OpenAI.AssistantsApiResponseFormatOption | Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.Importante:* quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto. |
No | |
| Flusso | booleano o null | Se true, restituisce un flusso di eventi che avvengono durante la Run come eventi inviati dal server, terminando quando la Run entra in uno stato terminale con un data: [DONE] messaggio. |
No | |
| Temperatura | number o null | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. | No | |
| Thread | OpenAI.CreateThreadRequest | Opzioni per creare un nuovo thread. Se non viene fornito alcun thread durante l'esecuzione di un request, verrà creato un thread vuoto. |
No | |
| tool_choice | OpenAI.AssistantsApiToolChoiceOption | Controlla quale (se presente) strumento viene chiamato dal modello.none significa che il modello non richiamerà nessuno strumento ma invece genera un messaggio.auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.required indica che il modello deve chiamare uno o più strumenti prima di rispondere all'utente.Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo. |
No | |
| tool_resources | OpenAI.CreateThreadAndRunRequestToolResources o null | Un insieme di risorse utilizzate dagli strumenti dell'assistente. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale. |
No | |
| Strumenti | matrice di OpenAI.AssistantTool | Sovrascrivi gli strumenti che l'assistente può usare per questa corsa. Questo è utile per modificare il comportamento su base per run. | No | |
| top_p | number o null | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. In genere consigliamo di modificare questo o la temperatura, ma non entrambi. |
No | |
| truncation_strategy | OpenAI.TruncationObject | Controlli su come un thread verrà troncato prima dell'esecuzione. Usa questo per controllare la finestra contestuale iniziale della run. | No |
OpenAI.CreateThreadAndRunRequestToolResources
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| code_interpreter | OpenAI.CreateThreadAndRunRequestToolResourcesCodeInterpreter | No | ||
| file_search | OpenAI.CreateThreadAndRunRequestToolResourcesFileSearch | No |
OpenAI.CreateThreadAndRunRequestToolResourcesCodeInterpreter
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| file_ids | matrice di stringhe | No | [] |
OpenAI.CreateThreadAndRunRequestToolResourcesFileSearch
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| vector_store_ids | matrice di stringhe | No |
OpenAI.CreateThreadRequest
Opzioni per creare un nuovo thread. Se non viene fornito alcun thread durante l'esecuzione di una richiesta, verrà creato un thread vuoto.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Messaggi | matrice di OpenAI.CreateMessageRequest | Elenco di messaggi con cui avviare il thread. | No | |
| Metadati | OpenAI.Metadata o Null | No | ||
| tool_resources | OpenAI.CreateThreadRequestToolResources o null | No |
OpenAI.CreateThreadRequestToolResources
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| code_interpreter | OpenAI.CreateThreadRequestToolResourcesCodeInterpreter | No | ||
| file_search | oggetto o oggetto | No |
OpenAI.CreateThreadRequestToolResourcesCodeInterpreter
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| file_ids | matrice di stringhe | No |
OpenAI.CreateVectorStoreFileBatchRequest
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Attributi | OpenAI.VectorStoreFileAttributes o null | No | ||
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . Applicabile solo se file_ids non è vuoto. |
No | |
| file_ids | matrice di stringhe | Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search questo che può accedere ai file. Se attributes o chunking_strategy vengono forniti, verranno applicati a tutti i file nel batch. Si escludono a vicenda con files. |
No | |
| File | matrice di OpenAI.CreateVectorStoreFileRequest | Elenco di oggetti che includono un file_id segno più facoltativo attributes o chunking_strategy. Usare questa opzione quando è necessario eseguire l'override dei metadati per file specifici. Il valore globale attributes o chunking_strategy verrà ignorato e deve essere specificato per ogni file. Si escludono a vicenda con file_ids. |
No |
OpenAI.CreateVectorStoreFileRequest
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Attributi | OpenAI.VectorStoreFileAttributes o null | No | ||
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . Applicabile solo se file_ids non è vuoto. |
No | |
| File_id | Stringa | ID file che deve essere usato dall'archivio vettoriale. Utile per strumenti come file_search questo che può accedere ai file. |
Sì |
OpenAI.CreateVectorStoreRequest
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . Applicabile solo se file_ids non è vuoto. |
No | |
| Descrizione | Stringa | Descrizione dell'archivio vettoriale. Può essere usato per descrivere lo scopo dell'archivio vettoriale. | No | |
| expires_after | OpenAI.VectorStoreExpirationAfter | La politica di scadenza per uno store vettoriale. | No | |
| file_ids | matrice di stringhe | Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search questo che può accedere ai file. |
No | |
| Metadati | OpenAI.Metadata o Null | No | ||
| Nome | Stringa | Il nome del negozio vettoriale. | No |
OpenAI.CustomGrammarFormatParam
Grammatica definita dall'utente.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Definizione | Stringa | Definizione della grammatica. | Sì | |
| Sintassi | OpenAI.GrammarSyntax1 | Sì | ||
| digitare | Enum | Formato grammaticale. Sempre grammar.Valori possibili: grammar |
Sì |
OpenAI.CustomTextFormatParam
Testo in formato libero senza vincoli.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Formato di testo non vincolato. Sempre text.Valori possibili: text |
Sì |
OpenAI.CustomToolChatCompletions
Strumento personalizzato che elabora l'input usando un formato specificato.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Personalizzato | OpenAI.CustomToolChatCompletionsCustom | Sì | ||
| └* descrizione | Stringa | No | ||
| └* formato | OpenAI.CustomToolChatCompletionsCustomFormatText o OpenAI.CustomToolChatCompletionsCustomFormatGrammar | No | ||
| └> nome | Stringa | Sì | ||
| digitare | Enum | Tipo dello strumento personalizzato. Sempre custom.Valori possibili: custom |
Sì |
OpenAI.CustomToolChatCompletionsCustom
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Descrizione | Stringa | No | ||
| Formato | OpenAI.CustomToolChatCompletionsCustomFormatText o OpenAI.CustomToolChatCompletionsCustomFormatGrammar | No | ||
| Nome | Stringa | Sì |
OpenAI.CustomToolChatCompletionsCustomFormatGrammar
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Grammatica | OpenAI.CustomToolChatCompletionsCustomFormatGrammarGrammar | Sì | ||
| Definizione └* | Stringa | Sì | ||
| Sintassi └++ | Enum | Valori possibili: lark, regex |
Sì | |
| digitare | Enum | Valori possibili: grammar |
Sì |
OpenAI.CustomToolChatCompletionsCustomFormatGrammarGrammar
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Definizione | Stringa | Sì | ||
| Sintassi | Enum | Valori possibili: lark, regex |
Sì |
OpenAI.CustomToolChatCompletionsCustomFormatText
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Valori possibili: text |
Sì |
OpenAI.CustomToolParam
Strumento personalizzato che elabora l'input usando un formato specificato. Altre informazioni sugli strumenti personalizzati
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Descrizione | Stringa | Descrizione facoltativa dello strumento personalizzato, usata per fornire più contesto. | No | |
| Formato | OpenAI.CustomToolParamFormat | Formato di input per lo strumento personalizzato. Il valore predefinito è testo non vincolato. | No | |
| Tipo └* | OpenAI.CustomToolParamFormatType | Sì | ||
| Nome | Stringa | Nome dello strumento personalizzato, usato per identificarlo nelle chiamate degli strumenti. | Sì | |
| digitare | Enum | Tipo dello strumento personalizzato. Sempre custom.Valori possibili: custom |
Sì |
OpenAI.CustomToolParamFormat
Formato di input per lo strumento personalizzato. Il valore predefinito è testo non vincolato.
Discriminare per OpenAI.CustomToolParamFormat
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
text |
OpenAI.CustomTextFormatParam |
grammar |
OpenAI.CustomGrammarFormatParam |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.CustomToolParamFormatType | Sì |
OpenAI.CustomToolParamFormatType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | textgrammar |
OpenAI.DeleteFileResponse
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Eliminato | Boolean | Sì | ||
| Id | Stringa | Sì | ||
| Oggetto | Enum | Valori possibili: file |
Sì |
OpenAI.DeleteFineTuningCheckpointPermissionResponse
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Eliminato | Boolean | Indica se l'autorizzazione del checkpoint del modello ottimizzata è stata eliminata correttamente. | Sì | |
| Id | Stringa | ID dell'autorizzazione del checkpoint del modello ottimizzata eliminata. | Sì | |
| Oggetto | Enum | Tipo di oggetto, che è sempre "checkpoint.permission". Valori possibili: checkpoint.permission |
Sì |
OpenAI.DeleteMessageResponse
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Eliminato | Boolean | Sì | ||
| Id | Stringa | Sì | ||
| Oggetto | Enum | Valori possibili: thread.message.deleted |
Sì |
OpenAI.DeleteModelResponse
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Eliminato | Boolean | Sì | ||
| Id | Stringa | Sì | ||
| Oggetto | Stringa | Sì |
OpenAI.DeleteThreadResponse
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Eliminato | Boolean | Sì | ||
| Id | Stringa | Sì | ||
| Oggetto | Enum | Valori possibili: thread.deleted |
Sì |
OpenAI.DeleteVectorStoreFileResponse
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Eliminato | Boolean | Sì | ||
| Id | Stringa | Sì | ||
| Oggetto | Enum | Valori possibili: vector_store.file.deleted |
Sì |
OpenAI.DeleteVectorStoreResponse
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Eliminato | Boolean | Sì | ||
| Id | Stringa | Sì | ||
| Oggetto | Enum | Valori possibili: vector_store.deleted |
Sì |
OpenAI.DeletedConversationResource
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Eliminato | Boolean | Sì | ||
| Id | Stringa | Sì | ||
| Oggetto | Enum | Valori possibili: conversation.deleted |
Sì |
OpenAI.DoubleClickAction
Un doppio clic.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Specifica il tipo di evento. Per un'azione di doppio clic, questa proprietà è sempre impostata su double_click.Valori possibili: double_click |
Sì | |
| X | Intero | La coordinata x dove è avvenuto il doppio clic. | Sì | |
| Y | Intero | La coordinata y in cui si è verificato il doppio clic. | Sì |
OpenAI.Drag
Un'azione di trascinamento.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Percorso | matrice di OpenAI.DragPoint | Un array di coordinate che rappresentano il percorso dell'azione di trascinata. Le coordinate verranno visualizzate come matrice di oggetti, ad esempio <br> [<br> { x: 100, y: 200 },<br> { x: 200, y: 300 }<br> ]<br> |
Sì | |
| digitare | Enum | Specifica il tipo di evento. Per un'azione di trascinamento, questa proprietà è sempre impostato su drag.Valori possibili: drag |
Sì |
OpenAI.DragPoint
Una coppia di coordinate x/y, ad { x: 100, y: 200 }esempio .
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| X | Intero | Coordinata x. | Sì | |
| Y | Intero | Coordinata y. | Sì |
OpenAI.EasyInputMessage
Un messaggio inserito nel modello con un ruolo che indica l'istruzione che segue la gerarchia. Le istruzioni date con il developer ruolo o system hanno la precedenza rispetto alle istruzioni date con il user ruolo. Si presume che i messaggi con il assistant ruolo siano stati generati dal modello in interazioni precedenti.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Contenuto | string o OpenAI.InputMessageContentList | Input di testo, immagine o audio al modello, utilizzato per generare una risposta. Può anche contenere risposte precedenti degli assistenti. |
Sì | |
| Ruolo | Enum | Il ruolo dell'input del messaggio. Uno di user, assistant, systemodeveloper.Valori possibili: user, assistant, system, developer |
Sì | |
| digitare | Enum | Il tipo di input del messaggio. Sempre message.Valori possibili: message |
Sì |
OpenAI.Embedding
Rappresenta un vettore di incorporamento restituito dall'endpoint di incorporamento.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Incorporamento | matrice di numeri | Vettore di incorporamento, che è un elenco di float. La lunghezza del vettore dipende dal modello elencato nella guida all'incorporamento. | Sì | |
| Indice | Intero | Indice dell'incorporamento nell'elenco di incorporamenti. | Sì | |
| Oggetto | Enum | Tipo di oggetto, che è sempre "incorporamento". Valori possibili: embedding |
Sì |
OpenAI.Eval
Un oggetto Eval con una configurazione della sorgente dati e criteri di test. Una valutazione rappresenta un compito da svolgere per l'integrazione del tuo LLM. Come:
- Migliora la qualità del mio chatbot
- Scopri come il mio chatbot gestisce l'assistenza clienti
- Controllare se o4-mini è meglio nel mio caso d'uso rispetto a gpt-4o
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| created_at | Intero | Il timestamp Unix (in secondi) indica quando è stata creata la valutazione. | Sì | |
| data_source_config | OpenAI.EvalCustomDataSourceConfig o OpenAI.EvalLogsDataSourceConfig o OpenAI.EvalStoredCompletionsDataSourceConfig | Configurazione delle origini dati usate nelle esecuzioni della valutazione. | Sì | |
| Id | Stringa | Identificatore unico per la valutazione. | Sì | |
| Metadati | OpenAI.Metadata o Null | Sì | ||
| Nome | Stringa | Il nome della valutazione. | Sì | |
| Oggetto | Enum | Il tipo di oggetto. Valori possibili: eval |
Sì | |
| testing_criteria | matrice di OpenAI.CreateEvalLabelModelGrader o OpenAI.EvalGraderStringCheck o OpenAI.EvalGraderTextSimilarity o OpenAI.EvalGraderPython o OpenAI.EvalGraderScoreModel o EvalGraderEndpoint | Un elenco di criteri per il test. | Sì |
OpenAI.EvalApiError
Un oggetto che rappresenta una risposta di errore dall'API Eval.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Codice | Stringa | Il codice di errore. | Sì | |
| Messaggio | Stringa | Il messaggio di errore. | Sì |
OpenAI.EvalCustomDataSourceConfig
Un CustomDataSourceConfig che specifica lo schema del tuo item e, opzionalmente sample , degli spazi di nomi.
Lo schema di risposta definisce la forma dei dati che saranno:
- Usato per definire i criteri di test e
- Quali dati sono necessari durante la creazione di un'esecuzione
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Schema | Oggetto | Lo schema json per gli elementi della sorgente dati eseguita. Impara qui come costruire schemi JSON. |
Sì | |
| digitare | Enum | Il tipo di fonte di dati. Sempre custom.Valori possibili: custom |
Sì |
OpenAI.EvalGraderPython
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| image_tag | Stringa | Tag immagine da usare per lo script Python. | No | |
| Nome | Stringa | Il nome del correttore. | Sì | |
| pass_threshold | Numero | La soglia per il punteggio. | No | |
| fonte | Stringa | Codice sorgente dello script Python. | Sì | |
| digitare | Enum | Il tipo di oggetto, che è sempre python.Valori possibili: python |
Sì |
OpenAI.EvalGraderScoreModel
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Input | matrice di OpenAI.EvalItem | Messaggi di input valutati dal classificatore. Supporta blocchi di testo, testo di output, immagine di input e contenuto audio di input e può includere stringhe modello. | Sì | |
| Modello | Stringa | Il modello da utilizzare per la valutazione. | Sì | |
| Nome | Stringa | Il nome del correttore. | Sì | |
| pass_threshold | Numero | La soglia per il punteggio. | No | |
| Gamma | matrice di numeri | La gamma della partitura. Di default è [0, 1]. |
No | |
| sampling_params | OpenAI.EvalGraderScoreModelSamplingParams | No | ||
| └max_completions_tokens | integer o null | No | ||
| └reasoning_effort | OpenAI.ReasoningEffort | Vincola lo sforzo sul ragionamento per ragionamento dei modelli. I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurrel'impegno di ragionamento può comportare risposte più veloci e meno token usati sul ragionamento in una risposta. - gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max. |
No | |
| └* valore di inizializzazione | integer o null | No | ||
| └* temperatura | number o null | No | ||
| └top_p | number o null | No | 1 | |
| digitare | Enum | Il tipo di oggetto, che è sempre score_model.Valori possibili: score_model |
Sì |
OpenAI.EvalGraderScoreModelSamplingParams
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| max_completions_tokens | integer o null | No | ||
| reasoning_effort | OpenAI.ReasoningEffort | Vincola lo sforzo sul ragionamento per ragionamento dei modelli. I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurrel'impegno di ragionamento può comportare risposte più veloci e meno token usati sul ragionamento in una risposta. - gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max. |
No | |
| Seme | integer o null | No | ||
| Temperatura | number o null | No | ||
| top_p | number o null | No |
OpenAI.EvalGraderStringCheck
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Input | Stringa | Il testo di input. Questo può includere stringhe template. | Sì | |
| Nome | Stringa | Il nome del correttore. | Sì | |
| Operazione | Enum | L'operazione di controllo stringhe da eseguire. Uno di eq, ne, like, o ilike.Valori possibili: eq, ne, like, ilike |
Sì | |
| Riferimento | Stringa | Il testo di riferimento. Questo può includere stringhe template. | Sì | |
| digitare | Enum | Il tipo di oggetto, che è sempre string_check.Valori possibili: string_check |
Sì |
OpenAI.EvalGraderTextSimilarity
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| evaluation_metric | Enum | La metrica di valutazione da utilizzare. Uno di cosine, fuzzy_match, bleu, ,gleu, meteor, rouge_1, rouge_2rouge_3, rouge_4, , rouge_5o rouge_l.Valori possibili: cosine, fuzzy_matchbleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l |
Sì | |
| Input | Stringa | Il testo viene valutato. | Sì | |
| Nome | Stringa | Il nome del correttore. | Sì | |
| pass_threshold | Numero | La soglia per il punteggio. | Sì | |
| Riferimento | Stringa | Il testo è stato valutato. | Sì | |
| digitare | Enum | Il tipo di correttore. Valori possibili: text_similarity |
Sì |
OpenAI.EvalItem
Un messaggio inserito nel modello con un ruolo che indica l'istruzione che segue la gerarchia. Le istruzioni date con il developer ruolo o system hanno la precedenza rispetto alle istruzioni date con il user ruolo. Si presume che i messaggi con il assistant ruolo siano stati generati dal modello in interazioni precedenti.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Contenuto | OpenAI.EvalItemContent | Input per il modello: può contenere stringhe di modello. Supporta testo, testo di output, immagini di input e audio di input, come singolo elemento o matrice di elementi. | Sì | |
| Ruolo | Enum | Il ruolo dell'input del messaggio. Uno di user, assistant, systemodeveloper.Valori possibili: user, assistant, system, developer |
Sì | |
| digitare | Enum | Il tipo di input del messaggio. Sempre message.Valori possibili: message |
No |
OpenAI.EvalItemContent
Input per il modello: può contenere stringhe di modello. Supporta testo, testo di output, immagini di input e audio di input, come singolo elemento o matrice di elementi.
Tipo: OpenAI.EvalItemContentItem o OpenAI.EvalItemContentArray
Input per il modello: può contenere stringhe di modello. Supporta testo, testo di output, immagini di input e audio di input, come singolo elemento o matrice di elementi.
OpenAI.EvalItemContentArray
Elenco di input, ognuno dei quali può essere un testo di input, testo di output, immagine di input o oggetto audio di input.
Matrice di: OpenAI.EvalItemContentItem
OpenAI.EvalItemContentItem
Un singolo elemento di contenuto: testo di input, testo di output, immagine di input o audio di input.
Tipo: OpenAI.EvalItemContentText o OpenAI.EvalItemContentItemObject
Un singolo elemento di contenuto: testo di input, testo di output, immagine di input o audio di input.
OpenAI.EvalItemContentItemObject
Un singolo elemento di contenuto: testo di input, testo di output, immagine di input o audio di input.
Discriminare per OpenAI.EvalItemContentItemObject
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
output_text |
OpenAI.EvalItemContentOutputText |
input_image |
OpenAI.EvalItemInputImage |
input_audio |
OpenAI.InputAudio |
input_text |
OpenAI.EvalItemContentItemObjectInputTextContent |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.EvalItemContentItemObjectType | Sì |
OpenAI.EvalItemContentItemObjectInputTextContent
Un input testuale al modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Testo | Stringa | Il testo inserito nel modello. | Sì | |
| digitare | Enum | Il tipo dell'elemento di input. Sempre input_text.Valori possibili: input_text |
Sì |
OpenAI.EvalItemContentItemObjectType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | input_textoutput_textinput_imageinput_audio |
OpenAI.EvalItemContentOutputText
Un testo prodotto dal modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Testo | Stringa | Il testo prodotto dal modello. | Sì | |
| digitare | Enum | Il tipo del testo in uscita. Sempre output_text.Valori possibili: output_text |
Sì |
OpenAI.EvalItemContentText
Un input testuale al modello.
Tipo: string
OpenAI.EvalItemInputImage
Blocco di input immagine usato nelle matrici di contenuto EvalItem.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dettaglio | Stringa | Il livello di dettaglio dell'immagine da inviare al modello. Uno di high, low, oppure auto. Di default è auto. |
No | |
| image_url | Stringa | URL dell'input dell'immagine. | Sì | |
| digitare | Enum | Tipo di input dell'immagine. Sempre input_image.Valori possibili: input_image |
Sì |
OpenAI.EvalJsonlFileContentSource
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Contenuto | matrice di OpenAI.EvalJsonlFileContentSourceContentContent | Il contenuto del file jsonl. | Sì | |
| digitare | Enum | Il tipo di sorgente jsonl. Sempre file_content.Valori possibili: file_content |
Sì |
OpenAI.EvalJsonlFileContentSourceContentContent
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Elemento | Oggetto | Sì | ||
| Esempio | Oggetto | No |
OpenAI.EvalJsonlFileIdSource
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Id | Stringa | L'identificatore del file. | Sì | |
| digitare | Enum | Il tipo di sorgente jsonl. Sempre file_id.Valori possibili: file_id |
Sì |
OpenAI.EvalList
Un oggetto che rappresenta una lista di valutazioni.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | matrice di OpenAI.Eval | Una serie di oggetti valutati. | Sì | |
| first_id | Stringa | L'identificatore della prima valutazione nell'array dei dati. | Sì | |
| has_more | Boolean | Indica se ci sono altre valutazioni disponibili. | Sì | |
| last_id | Stringa | L'identificatore dell'ultima valutazione nell'array di dati. | Sì | |
| Oggetto | Enum | Il tipo di questo oggetto. È sempre impostato su "list". Valori possibili: list |
Sì |
OpenAI.EvalLogsDataSourceConfig
LogsDataSourceConfig che specifica la proprietà dei metadati della query di log.
Di solito si tratta di metadati come usecase=chatbot o prompt-version=v2, ecc. Lo schema restituito da questa configurazione della sorgente dati viene utilizzato per definire quali variabili sono disponibili nelle tue valutazioni.
item e sample sono entrambi definiti quando si utilizza questa configurazione di sorgente di dati.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Metadati | OpenAI.Metadata o Null | No | ||
| Schema | Oggetto | Lo schema json per gli elementi della sorgente dati eseguita. Impara qui come costruire schemi JSON. |
Sì | |
| digitare | Enum | Il tipo di fonte di dati. Sempre logs.Valori possibili: logs |
Sì |
OpenAI.EvalResponsesSource
Oggetto EvalResponsesSource che descrive una configurazione dell'origine dati di esecuzione.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| created_after | integer o null | No | ||
| created_before | integer o null | No | ||
| instructions_search | stringa o null | No | ||
| Metadati | oggetto o null | No | ||
| Modello | stringa o null | No | ||
| reasoning_effort | OpenAI.ReasoningEffort o null | No | ||
| Temperatura | number o null | No | ||
| Strumenti | matrice di stringhe o null | No | ||
| top_p | number o null | No | ||
| digitare | Enum | Il tipo di fonte di dati di run. Sempre responses.Valori possibili: responses |
Sì | |
| Gli utenti | matrice di stringhe o null | No |
OpenAI.EvalRun
Uno schema che rappresenta una esecuzione di valutazione.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| created_at | Intero | Timestamp Unix (in secondi) quando è stata creata l'esecuzione della valutazione. | Sì | |
| data_source | OpenAI.CreateEvalJsonlRunDataSource o OpenAI.CreateEvalCompletionsRunDataSource o OpenAI.CreateEvalResponsesRunDataSource | Informazioni sull'origine dati dell'esecuzione. | Sì | |
| Errore | OpenAI.EvalApiError | Un oggetto che rappresenta una risposta di errore dall'API Eval. | Sì | |
| eval_id | Stringa | L'identificatore della valutazione associata. | Sì | |
| Id | Stringa | Identificatore univoco per l'esecuzione della valutazione. | Sì | |
| Metadati | OpenAI.Metadata o Null | Sì | ||
| Modello | Stringa | Il modello che viene valutato, se applicabile. | Sì | |
| Nome | Stringa | Il nome della corsa di valutazione. | Sì | |
| Oggetto | Enum | Il tipo di oggetto. Sempre "eval.run". Valori possibili: eval.run |
Sì | |
| per_model_usage | matrice di OpenAI.EvalRunPerModelUsage | Statistiche di utilizzo per ogni modello durante l'esecuzione della valutazione. | Sì | |
| per_testing_criteria_results | matrice di OpenAI.EvalRunPerTestingCriteriaResults | Risultati per criterio di test applicati durante la valutazione eseguita. | Sì | |
| report_url | Stringa | L'URL della valutazione renderizzata esegue il report sulla dashboard UI. | Sì | |
| result_counts | OpenAI.EvalRunResultCounts | Sì | ||
| └* errore | Intero | Sì | ||
| └* non riuscito | Intero | Sì | ||
| └> superato | Intero | Sì | ||
| └* totale | Intero | Sì | ||
| Stato | Stringa | Lo stato della valutazione della verifica. | Sì |
OpenAI.EvalRunList
Un oggetto che rappresenta una lista di corse per una valutazione.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | matrice di OpenAI.EvalRun | Una serie di oggetti di valutazione eseguite. | Sì | |
| first_id | Stringa | L'identificatore della prima valutazione eseguita nell'array dati. | Sì | |
| has_more | Boolean | Indica se ci sono altre valutazioni disponibili. | Sì | |
| last_id | Stringa | L'identificatore dell'ultima valutazione eseguita nell'array dati. | Sì | |
| Oggetto | Enum | Il tipo di questo oggetto. È sempre impostato su "list". Valori possibili: list |
Sì |
OpenAI.EvalRunOutputItem
Uno schema che rappresenta un elemento di output di esecuzione di valutazione.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| created_at | Intero | Timestamp Unix (in secondi) quando è stata creata l'esecuzione della valutazione. | Sì | |
| datasource_item | Oggetto | Dettagli dell'elemento della fonte dei dati in ingresso. | Sì | |
| datasource_item_id | Intero | L'identificatore per l'elemento della fonte dei dati. | Sì | |
| eval_id | Stringa | L'identificatore del gruppo di valutazione. | Sì | |
| Id | Stringa | Identificatore unico per l'output dell'esecuzione della valutazione. | Sì | |
| Oggetto | Enum | Il tipo di oggetto. Sempre "eval.run.output_item". Valori possibili: eval.run.output_item |
Sì | |
| Risultati | matrice di OpenAI.EvalRunOutputItemResult | Elenco dei risultati del grader per questo elemento di output. | Sì | |
| run_id | Stringa | L'identificatore dell'esecuzione di valutazione associata a questo elemento di output. | Sì | |
| Esempio | OpenAI.EvalRunOutputItemSample | Sì | ||
| Errore └* | OpenAI.EvalApiError | Un oggetto che rappresenta una risposta di errore dall'API Eval. | Sì | |
| └finish_reason | Stringa | Sì | ||
| Input └* | matrice di OpenAI.EvalRunOutputItemSampleInput | Sì | ||
| └max_completion_tokens | Intero | Sì | ||
| Modello └* | Stringa | Sì | ||
| └* output | matrice di OpenAI.EvalRunOutputItemSampleOutputOutput | Sì | ||
| └* valore di inizializzazione | Intero | Sì | ||
| └* temperatura | Numero | Sì | ||
| └top_p | Numero | Sì | ||
| └* utilizzo | OpenAI.EvalRunOutputItemSampleUsage | Sì | ||
| Stato | Stringa | Lo stato della valutazione della verifica. | Sì |
OpenAI.EvalRunOutputItemList
Un oggetto che rappresenta una lista di elementi di output per una valutazione eseguita.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | matrice di OpenAI.EvalRunOutputItem | Un array di oggetti output di output a esecuzione di valutazione. | Sì | |
| first_id | Stringa | L'identificatore dell'elemento di output della prima esecuzione di valutazione nell'array dati. | Sì | |
| has_more | Boolean | Indica se ci sono altri elementi di output di esecuzione di valutazione disponibili. | Sì | |
| last_id | Stringa | L'identificatore dell'ultimo elemento di output dell'esecuzione di valutazione nell'array dati. | Sì | |
| Oggetto | Enum | Il tipo di questo oggetto. È sempre impostato su "list". Valori possibili: list |
Sì |
OpenAI.EvalRunOutputItemResult
Risultato di un singolo gradore per un elemento di output dell'esecuzione della valutazione.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Nome | Stringa | Il nome del correttore. | Sì | |
| Passato | Boolean | Indica se il grader ha considerato l'output un passaggio. | Sì | |
| Esempio | oggetto o null | Dati facoltativi di esempio o intermedi prodotti dal grader. | No | |
| Punteggio | Numero | Punteggio numerico prodotto dal grader. | Sì | |
| digitare | Stringa | Tipo di grader (ad esempio, "string-check-grader"). | No |
OpenAI.EvalRunOutputItemSample
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Errore | OpenAI.EvalApiError | Un oggetto che rappresenta una risposta di errore dall'API Eval. | Sì | |
| finish_reason | Stringa | Sì | ||
| Input | matrice di OpenAI.EvalRunOutputItemSampleInput | Sì | ||
| max_completion_tokens | Intero | Sì | ||
| Modello | Stringa | Sì | ||
| Output | matrice di OpenAI.EvalRunOutputItemSampleOutputOutput | Sì | ||
| Seme | Intero | Sì | ||
| Temperatura | Numero | Sì | ||
| top_p | Numero | Sì | ||
| Utilizzo | OpenAI.EvalRunOutputItemSampleUsage | Sì |
OpenAI.EvalRunOutputItemSampleInput
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Contenuto | Stringa | Sì | ||
| Ruolo | Stringa | Sì |
OpenAI.EvalRunOutputItemSampleOutput
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Contenuto | Stringa | No | ||
| Ruolo | Stringa | No |
OpenAI.EvalRunOutputItemSampleUsage
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| cached_tokens | Intero | Sì | ||
| completion_tokens | Intero | Sì | ||
| prompt_tokens | Intero | Sì | ||
| total_tokens | Intero | Sì |
OpenAI.EvalRunPerModelUsage
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| cached_tokens | Intero | Sì | ||
| completion_tokens | Intero | Sì | ||
| invocation_count | Intero | Sì | ||
| model_name | Stringa | Sì | ||
| prompt_tokens | Intero | Sì | ||
| total_tokens | Intero | Sì |
OpenAI.EvalRunPerTestingCriteriaResults
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Fallito | Intero | Sì | ||
| Passato | Intero | Sì | ||
| testing_criteria | Stringa | Sì |
OpenAI.EvalRunResultCounts
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| errore | Intero | Sì | ||
| Fallito | Intero | Sì | ||
| Passato | Intero | Sì | ||
| Totale | Intero | Sì |
OpenAI.EvalStoredCompletionsDataSourceConfig
Deprecato a favore di LogsDataSourceConfig.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Metadati | OpenAI.Metadata o Null | No | ||
| Schema | Oggetto | Lo schema json per gli elementi della sorgente dati eseguita. Impara qui come costruire schemi JSON. |
Sì | |
| digitare | Enum | Il tipo di fonte di dati. Sempre stored_completions.Valori possibili: stored_completions |
Sì |
OpenAI.EvalStoredCompletionsSource
Una configurazione StoredCompletionsRunDataSource che descrive un insieme di filtri
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| created_after | integer o null | No | ||
| created_before | integer o null | No | ||
| Limite | integer o null | No | ||
| Metadati | OpenAI.Metadata o Null | No | ||
| Modello | stringa o null | No | ||
| digitare | Enum | Il tipo di fonte. Sempre stored_completions.Valori possibili: stored_completions |
Sì |
OpenAI.FileCitationBody
Una citazione per un fascicolo.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| File_id | Stringa | L'ID del fascicolo. | Sì | |
| Filename | Stringa | Nome file del file citato. | Sì | |
| Indice | Intero | L'indice del file nella lista dei file. | Sì | |
| digitare | Enum | Il tipo della citazione del fascicolo. Sempre file_citation.Valori possibili: file_citation |
Sì |
OpenAI.FilePath
Un percorso verso un file.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| File_id | Stringa | L'ID del fascicolo. | Sì | |
| Indice | Intero | L'indice del file nella lista dei file. | Sì | |
| digitare | Enum | Il tipo del percorso del file. Sempre file_path.Valori possibili: file_path |
Sì |
OpenAI.FileSearchRanker
Il ranker da usare per la ricerca dei file. Se non specificato, userà il auto ranker.
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | autodefault_2024_08_21 |
OpenAI.FileSearchRankingOptions
Opzioni di classificazione per la ricerca di file. Se non specificato, lo strumento di ricerca file userà il auto ranker e un score_threshold pari a 0.
Per altre informazioni, vedere la documentazione dello strumento di ricerca file .
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| ranker | OpenAI.FileSearchRanker | Il ranker da usare per la ricerca dei file. Se non specificato, userà il auto ranker. |
No | |
| score_threshold | Numero | Soglia del punteggio per la ricerca di file. Tutti i valori devono essere un numero in virgola mobile compreso tra 0 e 1. Vincoli: min: 0, max: 1 |
Sì |
OpenAI.FileSearchTool
Uno strumento che cerca contenuti rilevanti dai file caricati.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Filtri | OpenAI.Filters o null | No | ||
| max_num_results | Intero | Il numero massimo di risultati da restituire. Questo numero dovrebbe essere compreso tra 1 e 50 inclusi. | No | |
| ranking_options | OpenAI.RankingOptions | No | ||
| └hybrid_search | OpenAI.HybridSearchOptions | Pesi che controllano il modo in cui la fusione tra rango reciproco bilancia le corrispondenze di incorporamento semantico e le corrispondenze di parole chiave sparse quando la ricerca ibrida è abilitata. | No | |
| └* ranker | OpenAI.RankerVersionType | Il ranker da usare per la ricerca dei file. | No | |
| └score_threshold | Numero | La soglia di punteggio per la ricerca file, un numero compreso tra 0 e 1. I numeri più vicini a 1 cercheranno di restituire solo i risultati più rilevanti, ma potrebbero restituire meno risultati. | No | |
| digitare | Enum | Il tipo dello strumento di ricerca file. Sempre file_search.Valori possibili: file_search |
Sì | |
| vector_store_ids | matrice di stringhe | Gli ID dei vettori memorizzano per la ricerca. | Sì |
OpenAI.FileSearchToolCallResults
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Attributi | OpenAI.VectorStoreFileAttributes o null | No | ||
| File_id | Stringa | No | ||
| Filename | Stringa | No | ||
| Punteggio | Numero | No | ||
| Testo | Stringa | No |
OpenAI.Filters
Tipo: OpenAI.ComparisonFilter o OpenAI.CompoundFilter
OpenAI.FineTuneDPOHyperparameters
Iperparametri usati per il processo di ottimizzazione del dpo.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| batch_size | stringa o integer | Numero di esempi in ogni batch. Una dimensione batch maggiore indica che i parametri del modello vengono aggiornati meno frequentemente, ma con varianza inferiore. | No | |
| Beta | stringa o numero | Valore beta per il metodo DPO. Un valore beta più alto aumenterà il peso della penalità tra il criterio e il modello di riferimento. | No | |
| learning_rate_multiplier | stringa o numero | Fattore di ridimensionamento per la frequenza di apprendimento. Una frequenza di apprendimento più piccola può essere utile per evitare l'overfitting. | No | |
| n_epochs | stringa o integer | Il numero di epoche per cui addestrare il modello. Un'epoca si riferisce a un intero ciclo attraverso il dataset di addestramento. | No |
OpenAI.FineTuneDPOMethod
Configurazione per il metodo di ottimizzazione del dpo.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| iperparametri | OpenAI.FineTuneDPOHyperparameters | Iperparametri usati per il processo di ottimizzazione del dpo. | No |
OpenAI.FineTuneMethod
Metodo utilizzato per l'ottimizzazione.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dpo | OpenAI.FineTuneDPOMethod | Configurazione per il metodo di ottimizzazione del dpo. | No | |
| Rinforzo | AzureFineTuneReinforcementMethod | No | ||
| Sorvegliato | OpenAI.FineTuneSupervisedMethod | Configurazione per il metodo di ottimizzazione con supervisione. | No | |
| digitare | Enum | Tipo di metodo.
supervisedÈ , dpoo reinforcement.Valori possibili: supervised, dpo, reinforcement |
Sì |
OpenAI.FineTuneReinforcementHyperparameters
Iperparametri usati per il processo di ottimizzazione dell'ottimizzazione per rinforzo.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| batch_size | stringa o integer | Numero di esempi in ogni batch. Una dimensione batch maggiore indica che i parametri del modello vengono aggiornati meno frequentemente, ma con varianza inferiore. | No | |
| compute_multiplier | stringa o numero | Moltiplicatore per la quantità di calcolo usata per esplorare lo spazio di ricerca durante il training. | No | |
| eval_interval | stringa o integer | Numero di passaggi di training tra le esecuzioni di valutazione. | No | |
| eval_samples | stringa o integer | Numero di campioni di valutazione da generare per ogni passaggio di training. | No | |
| learning_rate_multiplier | stringa o numero | Fattore di ridimensionamento per la frequenza di apprendimento. Una frequenza di apprendimento più piccola può essere utile per evitare l'overfitting. | No | |
| n_epochs | stringa o integer | Il numero di epoche per cui addestrare il modello. Un'epoca si riferisce a un intero ciclo attraverso il dataset di addestramento. | No | |
| reasoning_effort | Enum | Livello di sforzo di ragionamento. Valori possibili: default, low, medium, high |
No |
OpenAI.FineTuneSupervisedHyperparameters
Iperparametri usati per il processo di ottimizzazione.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| batch_size | stringa o integer | Numero di esempi in ogni batch. Una dimensione batch maggiore indica che i parametri del modello vengono aggiornati meno frequentemente, ma con varianza inferiore. | No | |
| learning_rate_multiplier | stringa o numero | Fattore di ridimensionamento per la frequenza di apprendimento. Una frequenza di apprendimento più piccola può essere utile per evitare l'overfitting. | No | |
| n_epochs | stringa o integer | Il numero di epoche per cui addestrare il modello. Un'epoca si riferisce a un intero ciclo attraverso il dataset di addestramento. | No |
OpenAI.FineTuneSupervisedMethod
Configurazione per il metodo di ottimizzazione con supervisione.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| iperparametri | OpenAI.FineTuneSupervisedHyperparameters | Iperparametri usati per il processo di ottimizzazione. | No |
OpenAI.FineTuningCheckpointPermission
L'oggetto checkpoint.permission rappresenta un'autorizzazione per un checkpoint del modello ottimizzato.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| created_at | Intero | Timestamp Unix (in secondi) per il momento in cui è stata creata l'autorizzazione. | Sì | |
| Id | Stringa | Identificatore di autorizzazione a cui è possibile fare riferimento negli endpoint API. | Sì | |
| Oggetto | Enum | Tipo di oggetto, che è sempre "checkpoint.permission". Valori possibili: checkpoint.permission |
Sì | |
| project_id | Stringa | Identificatore del progetto per cui è destinata l'autorizzazione. | Sì |
OpenAI.FineTuningIntegration
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Tipo di integrazione abilitata per il processo di ottimizzazione Valori possibili: wandb |
Sì | |
| wandb | OpenAI.FineTuningIntegrationWandb | Sì | ||
| Entità └* | stringa o null | No | ||
| └> nome | stringa o null | No | ||
| Progetto └* | Stringa | Sì | ||
| └* tag | matrice di stringhe | No |
OpenAI.FineTuningIntegrationWandb
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Entità | stringa o null | No | ||
| Nome | stringa o null | No | ||
| Progetto | Stringa | Sì | ||
| Tag | matrice di stringhe | No |
OpenAI.FineTuningJob
L'oggetto fine_tuning.job rappresenta un processo di ottimizzazione che è stato creato tramite l'API.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| created_at | Intero | Timestamp Unix (in secondi) per il momento in cui è stato creato il processo di ottimizzazione. | Sì | |
| Errore | OpenAI.FineTuningJobError o null | Sì | ||
| estimated_finish | stringa o null | No | ||
| fine_tuned_model | stringa o null | Sì | ||
| finished_at | stringa o null | Sì | ||
| iperparametri | OpenAI.FineTuningJobHyperparameters | Sì | ||
| └batch_size | string o integer o null | No | Automatico | |
| └learning_rate_multiplier | stringa o numero | No | ||
| └n_epochs | stringa o integer | No | Automatico | |
| Id | Stringa | Identificatore dell'oggetto a cui è possibile fare riferimento negli endpoint API. | Sì | |
| Integrazioni | matrice di OpenAI.FineTuningIntegration o null | No | ||
| Metadati | OpenAI.Metadata o Null | No | ||
| Metodo | OpenAI.FineTuneMethod | Metodo utilizzato per l'ottimizzazione. | No | |
| Modello | Stringa | Modello di base ottimizzato. | Sì | |
| Oggetto | Enum | Tipo di oggetto, che è sempre "fine_tuning.job". Valori possibili: fine_tuning.job |
Sì | |
| organization_id | Stringa | Organizzazione proprietaria del processo di ottimizzazione. | Sì | |
| result_files | matrice di stringhe | ID file di risultati compilati per il processo di ottimizzazione. È possibile recuperare i risultati con l'API Files. | Sì | |
| Seme | Intero | Il seme usato per il lavoro di messa a punto. | Sì | |
| Stato | Enum | Stato corrente del processo di ottimizzazione, che può essere validating_files, queuedrunningsucceededfailedo .cancelledValori possibili: validating_files, queued, running, succeeded, failed, cancelled |
Sì | |
| trained_tokens | integer o null | Sì | ||
| training_file | Stringa | ID file utilizzato per il training. È possibile recuperare i dati di training con l'API Files. | Sì | |
| validation_file | stringa o null | Sì |
OpenAI.FineTuningJobCheckpoint
L'oggetto fine_tuning.job.checkpoint rappresenta un checkpoint del modello per un processo di ottimizzazione pronto per l'uso.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| created_at | Intero | Il timestamp Unix (in secondi) indica quando il checkpoint è stato creato. | Sì | |
| fine_tuned_model_checkpoint | Stringa | Il nome del modello di checkpoint fine-tuned che viene creato. | Sì | |
| fine_tuning_job_id | Stringa | Il nome del lavoro di messa a punto da cui è stato creato questo checkpoint. | Sì | |
| Id | Stringa | Identificatore del checkpoint, a cui è possibile fare riferimento negli endpoint API. | Sì | |
| Metriche | OpenAI.FineTuningJobCheckpointMetrics | Sì | ||
| └full_valid_loss | Numero | No | ||
| └full_valid_mean_token_accuracy | Numero | No | ||
| └* passaggio | Numero | No | ||
| └train_loss | Numero | No | ||
| └train_mean_token_accuracy | Numero | No | ||
| └valid_loss | Numero | No | ||
| └valid_mean_token_accuracy | Numero | No | ||
| Oggetto | Enum | Tipo di oggetto, che è sempre "fine_tuning.job.checkpoint". Valori possibili: fine_tuning.job.checkpoint |
Sì | |
| step_number | Intero | Il numero di passo a cui è stato creato il checkpoint. | Sì |
OpenAI.FineTuningJobCheckpointMetrics
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| full_valid_loss | Numero | No | ||
| full_valid_mean_token_accuracy | Numero | No | ||
| Passo | Numero | No | ||
| train_loss | Numero | No | ||
| train_mean_token_accuracy | Numero | No | ||
| valid_loss | Numero | No | ||
| valid_mean_token_accuracy | Numero | No |
OpenAI.FineTuningJobError
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Codice | Stringa | Sì | ||
| Messaggio | Stringa | Sì | ||
| Param | stringa o null | Sì |
OpenAI.FineTuningJobEvent
Oggetto evento processo di ottimizzazione
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| created_at | Intero | Timestamp Unix (in secondi) per il momento in cui è stato creato il processo di ottimizzazione. | Sì | |
| Dati | OpenAI.FineTuningJobEventData | No | ||
| Id | Stringa | Identificatore dell'oggetto. | Sì | |
| Livello | Enum | Livello di log dell'evento. Valori possibili: info, warn, error |
Sì | |
| Messaggio | Stringa | Messaggio dell'evento. | Sì | |
| Oggetto | Enum | Tipo di oggetto, che è sempre "fine_tuning.job.event". Valori possibili: fine_tuning.job.event |
Sì | |
| digitare | Enum | Tipo di evento. Valori possibili: message, metrics |
No |
OpenAI.FineTuningJobEventData
Tipo: oggetto
OpenAI.FineTuningJobHyperparameters
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| batch_size | string o integer o null | No | ||
| learning_rate_multiplier | stringa o numero | No | ||
| n_epochs | stringa o integer | No |
OpenAI.FunctionAndCustomToolCallOutput
Discriminare per OpenAI.FunctionAndCustomToolCallOutput
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
input_text |
OpenAI.FunctionAndCustomToolCallOutputInputTextContent |
input_image |
OpenAI.FunctionAndCustomToolCallOutputInputImageContent |
input_file |
OpenAI.FunctionAndCustomToolCallOutputInputFileContent |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.FunctionAndCustomToolCallOutputType | Sì |
OpenAI.FunctionAndCustomToolCallOutputInputFileContent
Un input file nel modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| file_data | Stringa | Il contenuto del file da inviare al modello. | No | |
| File_id | stringa o null | No | ||
| file_url | Stringa | URL del file da inviare al modello. | No | |
| Filename | Stringa | Il nome del file da inviare al modello. | No | |
| digitare | Enum | Il tipo dell'elemento di input. Sempre input_file.Valori possibili: input_file |
Sì |
OpenAI.FunctionAndCustomToolCallOutputInputImageContent
Un input immagine al modello. Informazioni sugli input delle immagini.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dettaglio | OpenAI.ImageDetail | Sì | ||
| File_id | stringa o null | No | ||
| image_url | stringa o null | No | ||
| digitare | Enum | Il tipo dell'elemento di input. Sempre input_image.Valori possibili: input_image |
Sì |
OpenAI.FunctionAndCustomToolCallOutputInputTextContent
Un input testuale al modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Testo | Stringa | Il testo inserito nel modello. | Sì | |
| digitare | Enum | Il tipo dell'elemento di input. Sempre input_text.Valori possibili: input_text |
Sì |
OpenAI.FunctionAndCustomToolCallOutputType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | input_textinput_imageinput_file |
OpenAI.FunctionObject
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Descrizione | Stringa | Una descrizione di ciò che fa la funzione, usata dal modello per scegliere quando e come chiamarla. | No | |
| Nome | Stringa | Il nome della funzione da chiamare. Devono essere dalla a-z, dalla A-Z, da 0 a 9, oppure contenere sottolineamenti e trattini, con una lunghezza massima di 64. | Sì | |
| Parametri | OpenAI.FunctionParameters | I parametri che le funzioni accettano, descritti come un oggetto JSON Schema. Vedere la guida per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato. Omettere parameters definisce una funzione con una lista di parametri vuota. |
No | |
| Rigorosa | booleano o null | No |
OpenAI.FunctionParameters
I parametri che le funzioni accettano, descritti come un oggetto JSON Schema. Vedere la guida per esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato.
Omettere parameters definisce una funzione con una lista di parametri vuota.
Tipo: oggetto
OpenAI.FunctionShellAction
Eseguire un comando shell.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Comandi | matrice di stringhe | Sì | ||
| max_output_length | integer o null | Sì | ||
| timeout_ms | integer o null | Sì |
OpenAI.FunctionShellCallOutputContent
Contenuto di un output di chiamata dello strumento shell generato.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| created_by | Stringa | Identificatore dell'attore che ha creato l'elemento. | No | |
| Risultato | OpenAI.FunctionShellCallOutputOutcome | Rappresenta un risultato di uscita (con un codice di uscita) o un risultato di timeout per un blocco di output della chiamata della shell. | Sì | |
| Tipo └* | OpenAI.FunctionShellCallOutputOutcomeType | Sì | ||
| Stderr | Stringa | Output degli errori standard acquisito. | Sì | |
| Stdout | Stringa | Output standard acquisito. | Sì |
OpenAI.FunctionShellCallOutputExitOutcome
Indica che i comandi della shell sono stati completati e restituiti un codice di uscita.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| exit_code | Intero | Uscire dal processo della shell. | Sì | |
| digitare | Enum | Tipo di risultato. Sempre exit.Valori possibili: exit |
Sì |
OpenAI.FunctionShellCallOutputOutcome
Rappresenta un risultato di uscita (con un codice di uscita) o un risultato di timeout per un blocco di output della chiamata della shell.
Discriminare per OpenAI.FunctionShellCallOutputOutcome
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
timeout |
OpenAI.FunctionShellCallOutputTimeoutOutcome |
exit |
OpenAI.FunctionShellCallOutputExitOutcome |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.FunctionShellCallOutputOutcomeType | Sì |
OpenAI.FunctionShellCallOutputOutcomeType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | timeoutexit |
OpenAI.FunctionShellCallOutputTimeoutOutcome
Indica che la chiamata della shell ha superato il limite di tempo configurato.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Tipo di risultato. Sempre timeout.Valori possibili: timeout |
Sì |
OpenAI.FunctionShellToolParam
Strumento che consente al modello di eseguire comandi della shell.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Tipo dello strumento shell. Sempre shell.Valori possibili: shell |
Sì |
OpenAI.FunctionTool
Definisce una funzione nel proprio codice che il modello può scegliere di chiamare.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Descrizione | stringa o null | No | ||
| Nome | Stringa | Il nome della funzione da chiamare. | Sì | |
| Parametri | oggetto o null | Sì | ||
| Rigorosa | booleano o null | Sì | ||
| digitare | Enum | Il tipo di strumento funzionale. Sempre function.Valori possibili: function |
Sì |
OpenAI.GraderMulti
Un oggetto MultiGrader combina l'output di più classificatori per produrre un singolo punteggio.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| calculate_output | Stringa | Formula per calcolare l'output in base ai risultati del grader. | Sì | |
| Livellatrici | OpenAI.GraderStringCheck o OpenAI.GraderTextSimilarity o OpenAI.GraderScoreModel o GraderEndpoint | Sì | ||
| Nome | Stringa | Il nome del correttore. | Sì | |
| digitare | Enum | Il tipo di oggetto, che è sempre multi.Valori possibili: multi |
Sì |
OpenAI.GraderPython
Oggetto PythonGrader che esegue uno script Python nell'input.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| image_tag | Stringa | Tag immagine da usare per lo script Python. | No | |
| Nome | Stringa | Il nome del correttore. | Sì | |
| fonte | Stringa | Codice sorgente dello script Python. | Sì | |
| digitare | Enum | Il tipo di oggetto, che è sempre python.Valori possibili: python |
Sì |
OpenAI.GraderScoreModel
Un oggetto ScoreModelGrader che utilizza un modello per assegnare un punteggio all'input.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Input | matrice di OpenAI.EvalItem | Messaggi di input valutati dal classificatore. Supporta blocchi di testo, testo di output, immagine di input e contenuto audio di input e può includere stringhe modello. | Sì | |
| Modello | Stringa | Il modello da utilizzare per la valutazione. | Sì | |
| Nome | Stringa | Il nome del correttore. | Sì | |
| Gamma | matrice di numeri | La gamma della partitura. Di default è [0, 1]. |
No | |
| sampling_params | OpenAI.EvalGraderScoreModelSamplingParams | No | ||
| └max_completions_tokens | integer o null | No | ||
| └reasoning_effort | OpenAI.ReasoningEffort | Vincola lo sforzo sul ragionamento per ragionamento dei modelli. I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurrel'impegno di ragionamento può comportare risposte più veloci e meno token usati sul ragionamento in una risposta. - gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max. |
No | |
| └* valore di inizializzazione | integer o null | No | ||
| └* temperatura | number o null | No | ||
| └top_p | number o null | No | 1 | |
| digitare | Enum | Il tipo di oggetto, che è sempre score_model.Valori possibili: score_model |
Sì |
OpenAI.GraderStringCheck
Un oggetto StringCheckGrader che effettua un confronto di stringhe tra input e riferimento utilizzando un'operazione specificata.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Input | Stringa | Il testo di input. Questo può includere stringhe template. | Sì | |
| Nome | Stringa | Il nome del correttore. | Sì | |
| Operazione | Enum | L'operazione di controllo stringhe da eseguire. Uno di eq, ne, like, o ilike.Valori possibili: eq, ne, like, ilike |
Sì | |
| Riferimento | Stringa | Il testo di riferimento. Questo può includere stringhe template. | Sì | |
| digitare | Enum | Il tipo di oggetto, che è sempre string_check.Valori possibili: string_check |
Sì |
OpenAI.GraderTextSimilarity
Un oggetto TextSimilarityGrader che valuta il testo in base a metriche di similarità.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| evaluation_metric | Enum | La metrica di valutazione da utilizzare. Uno di cosine, fuzzy_match, bleu, ,gleu, meteor, rouge_1, rouge_2rouge_3, rouge_4, , rouge_5o rouge_l.Valori possibili: cosine, fuzzy_matchbleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l |
Sì | |
| Input | Stringa | Il testo viene valutato. | Sì | |
| Nome | Stringa | Il nome del correttore. | Sì | |
| Riferimento | Stringa | Il testo è stato valutato. | Sì | |
| digitare | Enum | Il tipo di correttore. Valori possibili: text_similarity |
Sì |
OpenAI.GrammarSyntax1
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | larkregex |
OpenAI.HybridSearchOptions
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| embedding_weight | Numero | Peso dell'incorporamento nella fusione di rango reciproca. | Sì | |
| text_weight | Numero | Peso del testo nella fusione di rango reciproco. | Sì |
OpenAI.ImageDetail
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | lowhighauto |
OpenAI.ImageGenTool
Strumento che genera immagini usando i modelli di immagine GPT.
Modelli validi:
gpt-image-1
gpt-image-1-mini
gpt-image-2
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Priorità bassa | Enum | Tipo di sfondo per l'immagine generata. Uno di transparent,opaque
autoo . Impostazione predefinita: auto.Valori possibili: transparent, opaque, auto |
No | |
| input_fidelity | OpenAI.InputFidelity o null | No | ||
| input_image_mask | OpenAI.ImageGenToolInputImageMask | No | ||
| └file_id | Stringa | No | ||
| └image_url | Stringa | No | ||
| Modello | string (vedere modelli validi di seguito) | No | ||
| Moderazione | Enum | Livello di moderazione per l'immagine generata. Impostazione predefinita: auto.Valori possibili: auto, low |
No | |
| output_compression | Intero | Livello di compressione per l'immagine di output. Impostazione predefinita: 100. Vincoli: min: 0, max: 100 |
No | 100 |
| output_format | Enum | Formato di output dell'immagine generata. Uno di png, webpojpeg. Impostazione predefinita: png.Valori possibili: png, webp, jpeg |
No | |
| partial_images | Intero | Numero di immagini parziali da generare in modalità di streaming, da 0 (valore predefinito) a 3. Vincoli: min: 0, max: 3 |
No | |
| Qualità | Enum | Qualità dell'immagine generata. Uno di low, medium, high, ,o auto. Impostazione predefinita: auto.Valori possibili: low, medium, high, auto |
No | |
| Dimensione | Enum | Dimensioni dell'immagine generata. Uno di 1024x1024, 1024x1536,1536x1024
autoo . Impostazione predefinita: auto.Valori possibili: 1024x1024, 1024x1536, 1536x1024, auto |
No | |
| digitare | Enum | Tipo dello strumento di generazione di immagini. Sempre image_generation.Valori possibili: image_generation |
Sì |
OpenAI.ImageGenToolInputImageMask
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| File_id | Stringa | No | ||
| image_url | Stringa | No |
OpenAI.IncludeEnum
Specificare dati di output aggiuntivi da includere nella risposta del modello. I valori attualmente supportati sono:
-
web_search_call.action.sources: includere le origini della chiamata dello strumento di ricerca Web. -
code_interpreter_call.outputs: include gli output dell'esecuzione del codice Python negli elementi di chiamata dello strumento dell'interprete del codice. -
computer_call_output.output.image_url: Includere gli URL delle immagini dall'output della chiamata computer. -
file_search_call.results: Includi i risultati della ricerca della chiamata dello strumento di ricerca file. -
message.input_image.image_url: Includere gli URL delle immagini dal messaggio di input. -
message.output_text.logprobs: includere logprobs con messaggi di assistente. -
reasoning.encrypted_content: include una versione crittografata dei token di ragionamento negli output degli elementi di ragionamento. Ciò consente di usare gli elementi di ragionamento nelle conversazioni a più turni quando si usa l'API Risposte senza stato (ad esempio quando ilstoreparametro è impostato sufalseo quando un'organizzazione viene registrata nel programma di conservazione dei dati zero).
| Proprietà | Valore |
|---|---|
| Descrizione | Specificare dati di output aggiuntivi da includere nella risposta del modello. I valori attualmente supportati sono: |
-
web_search_call.action.sources: includere le origini della chiamata dello strumento di ricerca Web. -
code_interpreter_call.outputs: include gli output dell'esecuzione del codice Python negli elementi di chiamata dello strumento dell'interprete del codice. -
computer_call_output.output.image_url: Includere gli URL delle immagini dall'output della chiamata computer. -
file_search_call.results: Includi i risultati della ricerca della chiamata dello strumento di ricerca file. -
message.input_image.image_url: Includere gli URL delle immagini dal messaggio di input. -
message.output_text.logprobs: includere logprobs con messaggi di assistente. -
reasoning.encrypted_content: include una versione crittografata dei token di ragionamento negli output degli elementi di ragionamento. Ciò consente di usare gli elementi di ragionamento nelle conversazioni a più turni quando si usa l'API Risposte senza stato (ad esempio quando ilstoreparametro è impostato sufalseo quando un'organizzazione viene registrata nel programma di conservazione dei dati zero). | | Tipo | string | | Valori |file_search_call.resultsweb_search_call.resultsweb_search_call.action.sourcesmessage.input_image.image_urlcomputer_call_output.output.image_urlcode_interpreter_call.outputsreasoning.encrypted_contentmessage.output_text.logprobs|
OpenAI.InputAudio
Un ingresso audio al modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| input_audio | OpenAI.InputAudioInputAudio | Sì | ||
| digitare | Enum | Il tipo dell'elemento di input. Sempre input_audio.Valori possibili: input_audio |
Sì |
OpenAI.InputAudioInputAudio
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | Stringa | Sì | ||
| Formato | Enum | Valori possibili: mp3, wav |
Sì |
OpenAI.InputContent
Discriminare per OpenAI.InputContent
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
input_text |
OpenAI.InputContentInputTextContent |
input_image |
OpenAI.InputContentInputImageContent |
input_file |
OpenAI.InputContentInputFileContent |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.InputContentType | Sì |
OpenAI.InputContentInputFileContent
Un input file nel modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| file_data | Stringa | Il contenuto del file da inviare al modello. | No | |
| File_id | stringa o null | No | ||
| file_url | Stringa | URL del file da inviare al modello. | No | |
| Filename | Stringa | Il nome del file da inviare al modello. | No | |
| digitare | Enum | Il tipo dell'elemento di input. Sempre input_file.Valori possibili: input_file |
Sì |
OpenAI.InputContentInputImageContent
Un input immagine al modello. Informazioni sugli input delle immagini.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dettaglio | OpenAI.ImageDetail | Sì | ||
| File_id | stringa o null | No | ||
| image_url | stringa o null | No | ||
| digitare | Enum | Il tipo dell'elemento di input. Sempre input_image.Valori possibili: input_image |
Sì |
OpenAI.InputContentInputTextContent
Un input testuale al modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Testo | Stringa | Il testo inserito nel modello. | Sì | |
| digitare | Enum | Il tipo dell'elemento di input. Sempre input_text.Valori possibili: input_text |
Sì |
OpenAI.InputContentType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | input_textinput_imageinput_file |
OpenAI.InputFidelity
Controlla quanto sforzo il modello applicherà per adattarsi allo stile e alle caratteristiche, soprattutto ai tratti facciali, delle immagini di input. Questo parametro è supportato solo per gpt-image-1 e gpt-image-2. Non supportato per gpt-image-1-mini. Supporti high e low. Di default è low.
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | highlow |
OpenAI.InputFileContent
Un input file nel modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| file_data | Stringa | Il contenuto del file da inviare al modello. | No | |
| File_id | stringa o null | No | ||
| file_url | Stringa | URL del file da inviare al modello. | No | |
| Filename | Stringa | Il nome del file da inviare al modello. | No | |
| digitare | Enum | Il tipo dell'elemento di input. Sempre input_file.Valori possibili: input_file |
Sì |
OpenAI.InputImageContent
Un input immagine al modello. Informazioni sugli input delle immagini.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dettaglio | OpenAI.ImageDetail | Sì | ||
| File_id | stringa o null | No | ||
| image_url | stringa o null | No | ||
| digitare | Enum | Il tipo dell'elemento di input. Sempre input_image.Valori possibili: input_image |
Sì |
OpenAI.InputItem
Discriminare per OpenAI.InputItem
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
message |
OpenAI.EasyInputMessage |
item_reference |
OpenAI.ItemReferenceParam |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.InputItemType | Sì |
OpenAI.InputItemType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | messageitem_reference |
OpenAI.InputMessageContentList
Un elenco di uno o più elementi di input al modello, contenenti diversi tipi di contenuto.
Matrice di: OpenAI.InputContent
OpenAI.InputMessageResource
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Contenuto | OpenAI.InputMessageContentList | Elenco di uno o più elementi di input per il modello, contenente contenuto diverso Tipi. |
Sì | |
| Id | Stringa | L'ID unico dell'input del messaggio. | Sì | |
| Ruolo | Enum | Il ruolo dell'input del messaggio. Uno di user, system, oppure developer.Valori possibili: user, system, developer |
Sì | |
| Stato | Enum | Lo stato dell'oggetto. Uno di in_progress, completedoincomplete. Popolati quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
No | |
| digitare | Enum | Il tipo di input del messaggio. Imposta sempre su message.Valori possibili: message |
Sì |
OpenAI.InputParam
Input di testo, immagine o file al modello, utilizzati per generare una risposta. Ulteriori informazioni:
Tipo: stringa o matrice di OpenAI.InputItem
Input di testo, immagine o file al modello, utilizzati per generare una risposta. Ulteriori informazioni:
OpenAI.InputTextContent
Un input testuale al modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Testo | Stringa | Il testo inserito nel modello. | Sì | |
| digitare | Enum | Il tipo dell'elemento di input. Sempre input_text.Valori possibili: input_text |
Sì |
OpenAI.ItemReferenceParam
Un identificatore interno per un oggetto da riferire.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Id | Stringa | L'ID dell'oggetto da consultare. | Sì | |
| digitare | Enum | Il tipo di oggetto da consultare. Sempre item_reference.Valori possibili: item_reference |
Sì |
OpenAI.ItemResource
Elemento di contenuto usato per generare una risposta.
Discriminatorio per OpenAI.ItemResource
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.ItemResourceType | Sì |
OpenAI.ItemResourceApplyPatchToolCall
Chiamata dello strumento che applica differenze di file creando, eliminando o aggiornando i file.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| call_id | Stringa | ID univoco della chiamata dello strumento applica patch generata dal modello. | Sì | |
| created_by | Stringa | ID dell'entità che ha creato questa chiamata allo strumento. | No | |
| Id | Stringa | ID univoco della chiamata dello strumento apply patch. Popolata quando questo elemento viene restituito tramite API. | Sì | |
| Operazione | OpenAI.ApplyPatchFileOperation | Una delle operazioni di create_file, delete_file o update_file applicate tramite apply_patch. | Sì | |
| Tipo └* | OpenAI.ApplyPatchFileOperationType | Sì | ||
| Stato | OpenAI.ApplyPatchCallStatus | Sì | ||
| digitare | Enum | Tipo dell'elemento. Sempre apply_patch_call.Valori possibili: apply_patch_call |
Sì |
OpenAI.ItemResourceApplyPatchToolCallOutput
Output generato da una chiamata di applicazione dello strumento patch.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| call_id | Stringa | ID univoco della chiamata dello strumento applica patch generata dal modello. | Sì | |
| created_by | Stringa | ID dell'entità che ha creato l'output della chiamata dello strumento. | No | |
| Id | Stringa | ID univoco dell'output della chiamata dello strumento patch apply. Popolata quando questo elemento viene restituito tramite API. | Sì | |
| Output | stringa o null | No | ||
| Stato | OpenAI.ApplyPatchCallOutputStatus | Sì | ||
| digitare | Enum | Tipo dell'elemento. Sempre apply_patch_call_output.Valori possibili: apply_patch_call_output |
Sì |
OpenAI.ItemResourceCodeInterpreterToolCall
Una chiamata a uno strumento per eseguire codice.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Codice | stringa o null | Sì | ||
| container_id | Stringa | ID del contenitore usato per eseguire il codice. | Sì | |
| Id | Stringa | L'ID univoco dello strumento interprete del codice chiama. | Sì | |
| Uscite | matrice di OpenAI.CodeInterpreterOutputLogs o OpenAI.CodeInterpreterOutputImage o null | Sì | ||
| Stato | Enum | Lo stato dello strumento di interprete del codice chiamato. I valori validi sono in_progress, completedincomplete, interpreting, e failed.Valori possibili: in_progress, completed, incomplete, interpreting, failed |
Sì | |
| digitare | Enum | Il tipo che chiama lo strumento dell'interprete del codice. Sempre code_interpreter_call.Valori possibili: code_interpreter_call |
Sì |
OpenAI.ItemResourceComputerToolCall
Un richiamo a uno strumento per l'uso del computer. Per altre informazioni, vedere la guida all'uso del computer .
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Azione | OpenAI.ComputerAction | Sì | ||
| call_id | Stringa | Un identificatore usato quando si risponde alla chiamata dello strumento con output. | Sì | |
| Id | Stringa | L'ID unico della chiamata computerizzata. | Sì | |
| pending_safety_checks | matrice di OpenAI.ComputerCallSafetyCheckParam | I controlli di sicurezza in attesa per la chiamata al computer. | Sì | |
| Stato | Enum | Lo stato dell'oggetto. Uno di in_progress, completedoincomplete. Popolati quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
Sì | |
| digitare | Enum | Il tipo di chiamata al computer. Sempre computer_call.Valori possibili: computer_call |
Sì |
OpenAI.ItemResourceComputerToolCallOutputResource
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| acknowledged_safety_checks | matrice di OpenAI.ComputerCallSafetyCheckParam | I controlli di sicurezza segnalati dall'API che sono stati riconosciuti dal Sviluppatore. |
No | |
| call_id | Stringa | L'ID della chiamata dello strumento informatico che ha prodotto l'output. | Sì | |
| Id | Stringa | L'ID dell'output della chiamata dello strumento informatico. | No | |
| Output | OpenAI.ComputerScreenshotImage | Un'immagine screenshot del computer usata con lo strumento di uso del computer. | Sì | |
| Stato | Enum | Lo stato del messaggio inserito. Uno di in_progress, completedoincomplete. Popolati quando gli input input vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
No | |
| digitare | Enum | Il tipo di output della chiamata dello strumento informatico. Sempre computer_call_output.Valori possibili: computer_call_output |
Sì |
OpenAI.ItemResourceFileSearchToolCall
I risultati di uno strumento di ricerca file chiamano. Per altre informazioni, vedere la guida alla ricerca di file .
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Id | Stringa | L'ID univoco dello strumento di ricerca file chiama. | Sì | |
| Query | matrice di stringhe | Le query usate per cercare file. | Sì | |
| Risultati | matrice di OpenAI.FileSearchToolCallResults o null | No | ||
| Stato | Enum | Lo stato dello strumento di ricerca file chiamato. Uno di in_progress,searching, incomplete o failed,Valori possibili: in_progress, searching, completed, incomplete, failed |
Sì | |
| digitare | Enum | Il tipo di chiamata dello strumento di ricerca file. Sempre file_search_call.Valori possibili: file_search_call |
Sì |
OpenAI.ItemResourceFunctionShellCall
Chiamata dello strumento che esegue uno o più comandi della shell in un ambiente gestito.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Azione | OpenAI.FunctionShellAction | Eseguire un comando shell. | Sì | |
| Comandi └* | matrice di stringhe | Sì | ||
| └max_output_length | integer o null | Sì | ||
| └timeout_ms | integer o null | Sì | ||
| call_id | Stringa | ID univoco della chiamata dello strumento shell generata dal modello. | Sì | |
| created_by | Stringa | ID dell'entità che ha creato questa chiamata allo strumento. | No | |
| Id | Stringa | ID univoco della chiamata dello strumento shell. Popolata quando questo elemento viene restituito tramite API. | Sì | |
| Stato | OpenAI.LocalShellCallStatus | Sì | ||
| digitare | Enum | Tipo dell'elemento. Sempre shell_call.Valori possibili: shell_call |
Sì |
OpenAI.ItemResourceFunctionShellCallOutput
Output di una chiamata dello strumento shell generata.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| call_id | Stringa | ID univoco della chiamata dello strumento shell generata dal modello. | Sì | |
| created_by | Stringa | Identificatore dell'attore che ha creato l'elemento. | No | |
| Id | Stringa | ID univoco dell'output della chiamata della shell. Popolata quando questo elemento viene restituito tramite API. | Sì | |
| max_output_length | integer o null | Sì | ||
| Output | matrice di OpenAI.FunctionShellCallOutputContent | Matrice di contenuti di output delle chiamate shell | Sì | |
| digitare | Enum | Tipo dell'output delle chiamate della shell. Sempre shell_call_output.Valori possibili: shell_call_output |
Sì |
OpenAI.ItemResourceFunctionToolCallOutputResource
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| call_id | Stringa | L'ID univoco della chiamata dello strumento funzionale generata dal modello. | Sì | |
| Id | Stringa | L'ID unico dell'output della chiamata dello strumento funzionale. Popolato quando questo elemento viene restituito tramite l'API. |
No | |
| Output | stringa o matrice di OpenAI.FunctionAndCustomToolCallOutput | Output della chiamata di funzione generata dal codice. Può essere una stringa o un elenco di contenuto di output. |
Sì | |
| Stato | Enum | Lo stato dell'oggetto. Uno di in_progress, completedoincomplete. Popolati quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
No | |
| digitare | Enum | Il tipo di funzione chiama output dello strumento. Sempre function_call_output.Valori possibili: function_call_output |
Sì |
OpenAI.ItemResourceFunctionToolCallResource
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Argomenti | Stringa | Una stringa JSON degli argomenti da passare alla funzione. | Sì | |
| call_id | Stringa | L'ID univoco della chiamata dello strumento funzionale generata dal modello. | Sì | |
| Id | Stringa | L'ID univoco dello strumento di funzione chiama. | No | |
| Nome | Stringa | Il nome della funzione da eseguire. | Sì | |
| Stato | Enum | Lo stato dell'oggetto. Uno di in_progress, completedoincomplete. Popolati quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
No | |
| digitare | Enum | Il tipo di chiamata dello strumento funzionale. Sempre function_call.Valori possibili: function_call |
Sì |
OpenAI.ItemResourceImageGenToolCall
Richiesta di generazione di immagini effettuata dal modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Id | Stringa | ID univoco della chiamata di generazione dell'immagine. | Sì | |
| Risultato | stringa o null | Sì | ||
| Stato | Enum | Stato della chiamata di generazione dell'immagine. Valori possibili: in_progress, completed, generating, failed |
Sì | |
| digitare | Enum | Tipo della chiamata di generazione dell'immagine. Sempre image_generation_call.Valori possibili: image_generation_call |
Sì |
OpenAI.ItemResourceLocalShellToolCall
Chiamata dello strumento per eseguire un comando nella shell locale.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Azione | OpenAI.LocalShellExecAction | Eseguire un comando shell nel server. | Sì | |
| call_id | Stringa | ID univoco della chiamata dello strumento shell locale generata dal modello. | Sì | |
| Id | Stringa | ID univoco della chiamata della shell locale. | Sì | |
| Stato | Enum | Stato della chiamata della shell locale. Valori possibili: in_progress, completed, incomplete |
Sì | |
| digitare | Enum | Tipo di chiamata della shell locale. Sempre local_shell_call.Valori possibili: local_shell_call |
Sì |
OpenAI.ItemResourceLocalShellToolCallOutput
Output di una chiamata allo strumento shell locale.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Id | Stringa | ID univoco della chiamata dello strumento shell locale generata dal modello. | Sì | |
| Output | Stringa | Stringa JSON dell'output della chiamata allo strumento shell locale. | Sì | |
| Stato | stringa o null | No | ||
| digitare | Enum | Tipo dell'output delle chiamate dello strumento shell locale. Sempre local_shell_call_output.Valori possibili: local_shell_call_output |
Sì |
OpenAI.ItemResourceMcpApprovalRequest
Richiesta di approvazione umana di una chiamata a uno strumento.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Argomenti | Stringa | Stringa JSON di argomenti per lo strumento. | Sì | |
| Id | Stringa | ID univoco della richiesta di approvazione. | Sì | |
| Nome | Stringa | Nome dello strumento da eseguire. | Sì | |
| server_label | Stringa | Etichetta del server MCP che effettua la richiesta. | Sì | |
| digitare | Enum | Tipo dell'elemento. Sempre mcp_approval_request.Valori possibili: mcp_approval_request |
Sì |
OpenAI.ItemResourceMcpApprovalResponseResource
Risposta a una richiesta di approvazione MCP.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| approval_request_id | Stringa | ID della richiesta di approvazione a cui viene inviata la risposta. | Sì | |
| Approvare | Boolean | Indica se la richiesta è stata approvata. | Sì | |
| Id | Stringa | ID univoco della risposta di approvazione | Sì | |
| Motivo | stringa o null | No | ||
| digitare | Enum | Tipo dell'elemento. Sempre mcp_approval_response.Valori possibili: mcp_approval_response |
Sì |
OpenAI.ItemResourceMcpListTools
Elenco di strumenti disponibili in un server MCP.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Errore | stringa o null | No | ||
| Id | Stringa | ID univoco dell'elenco. | Sì | |
| server_label | Stringa | Etichetta del server MCP. | Sì | |
| Strumenti | matrice di OpenAI.MCPListToolsTool | Strumenti disponibili nel server. | Sì | |
| digitare | Enum | Tipo dell'elemento. Sempre mcp_list_tools.Valori possibili: mcp_list_tools |
Sì |
OpenAI.ItemResourceMcpToolCall
Chiamata di uno strumento in un server MCP.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| approval_request_id | stringa o null | No | ||
| Argomenti | Stringa | Stringa JSON degli argomenti passati allo strumento. | Sì | |
| Errore | stringa o null | No | ||
| Id | Stringa | ID univoco della chiamata allo strumento. | Sì | |
| Nome | Stringa | Nome dello strumento eseguito. | Sì | |
| Output | stringa o null | No | ||
| server_label | Stringa | Etichetta del server MCP che esegue lo strumento. | Sì | |
| Stato | OpenAI.MCPToolCallStatus | No | ||
| digitare | Enum | Tipo dell'elemento. Sempre mcp_call.Valori possibili: mcp_call |
Sì |
OpenAI.ItemResourceOutputMessage
Un messaggio di output dal modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Contenuto | matrice di OpenAI.OutputMessageContent | Il contenuto del messaggio di output. | Sì | |
| Id | Stringa | L'ID univoco del messaggio di output. | Sì | |
| Ruolo | Enum | Il ruolo del messaggio di output. Sempre assistant.Valori possibili: assistant |
Sì | |
| Stato | Enum | Lo stato del messaggio inserito. Uno di in_progress, completedoincomplete. Popolati quando gli input input vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
Sì | |
| digitare | Enum | Il tipo del messaggio di output. Sempre message.Valori possibili: output_message |
Sì |
OpenAI.ItemResourceType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | messageoutput_messagefile_search_callcomputer_callcomputer_call_outputweb_search_callfunction_callfunction_call_outputimage_generation_callcode_interpreter_calllocal_shell_calllocal_shell_call_outputshell_callshell_call_outputapply_patch_callapply_patch_call_outputmcp_list_toolsmcp_approval_requestmcp_approval_responsemcp_call |
OpenAI.ItemResourceWebSearchToolCall
Risultati di una chiamata allo strumento di ricerca Web. Per altre informazioni, vedere la guida alla ricerca Web .
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Azione | OpenAI.WebSearchActionSearch o OpenAI.WebSearchActionOpenPage o OpenAI.WebSearchActionFind | Oggetto che descrive l'azione specifica eseguita in questa chiamata di ricerca Web. Include informazioni dettagliate sul modo in cui il modello ha usato il Web (ricerca, open_page, ricerca). |
Sì | |
| Id | Stringa | ID univoco della chiamata dello strumento di ricerca Web. | Sì | |
| Stato | Enum | Stato della chiamata dello strumento di ricerca Web. Valori possibili: in_progress, searching, completed, failed |
Sì | |
| digitare | Enum | Tipo di chiamata dello strumento di ricerca Web. Sempre web_search_call.Valori possibili: web_search_call |
Sì |
OpenAI.KeyPressAction
Una raccolta di pressioni di tasti che il modello vorrebbe eseguire.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Chiavi | matrice di stringhe | La combinazione di tasti che il modello richiede di premere. Questa è una matrice di stringhe, ciascuna rappresenta una tonalità. | Sì | |
| digitare | Enum | Specifica il tipo di evento. Per un'azione di pressione tastiera, questa proprietà è sempre impostata su keypress.Valori possibili: keypress |
Sì |
OpenAI.ListBatchesResponse
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | matrice di OpenAI.Batch | Sì | ||
| first_id | Stringa | No | ||
| has_more | Boolean | Sì | ||
| last_id | Stringa | No | ||
| Oggetto | Enum | Valori possibili: list |
Sì |
OpenAI.ListFilesResponse
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | matrice di OpenAI.OpenAIFile | Sì | ||
| first_id | Stringa | Sì | ||
| has_more | Boolean | Sì | ||
| last_id | Stringa | Sì | ||
| Oggetto | Stringa | Sì |
OpenAI.ListFineTuningCheckpointPermissionResponse
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | matrice di OpenAI.FineTuningCheckpointPermission | Sì | ||
| first_id | stringa o null | No | ||
| has_more | Boolean | Sì | ||
| last_id | stringa o null | No | ||
| Oggetto | Enum | Valori possibili: list |
Sì |
OpenAI.ListFineTuningJobCheckpointsResponse
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | matrice di OpenAI.FineTuningJobCheckpoint | Sì | ||
| first_id | stringa o null | No | ||
| has_more | Boolean | Sì | ||
| last_id | stringa o null | No | ||
| Oggetto | Enum | Valori possibili: list |
Sì |
OpenAI.ListFineTuningJobEventsResponse
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | matrice di OpenAI.FineTuningJobEvent | Sì | ||
| has_more | Boolean | Sì | ||
| Oggetto | Enum | Valori possibili: list |
Sì |
OpenAI.ListMessagesResponse
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | matrice di OpenAI.MessageObject | Sì | ||
| first_id | Stringa | Sì | ||
| has_more | Boolean | Sì | ||
| last_id | Stringa | Sì | ||
| Oggetto | Stringa | Sì |
OpenAI.ListModelsResponse
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | matrice di OpenAI.Model | Sì | ||
| Oggetto | Enum | Valori possibili: list |
Sì |
OpenAI.ListPaginatedFineTuningJobsResponse
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | matrice di OpenAI.FineTuningJob | Sì | ||
| has_more | Boolean | Sì | ||
| Oggetto | Enum | Valori possibili: list |
Sì |
OpenAI.ListRunStepsResponse
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | matrice di OpenAI.RunStepObject | Sì | ||
| first_id | Stringa | Sì | ||
| has_more | Boolean | Sì | ||
| last_id | Stringa | Sì | ||
| Oggetto | Stringa | Sì |
OpenAI.ListRunsResponse
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | matrice di OpenAI.RunObject | Sì | ||
| first_id | Stringa | Sì | ||
| has_more | Boolean | Sì | ||
| last_id | Stringa | Sì | ||
| Oggetto | Stringa | Sì |
OpenAI.ListVectorStoreFilesResponse
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | matrice di OpenAI.VectorStoreFileObject | Sì | ||
| first_id | Stringa | Sì | ||
| has_more | Boolean | Sì | ||
| last_id | Stringa | Sì | ||
| Oggetto | Stringa | Sì |
OpenAI.ListVectorStoresResponse
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | matrice di OpenAI.VectorStoreObject | Sì | ||
| first_id | Stringa | Sì | ||
| has_more | Boolean | Sì | ||
| last_id | Stringa | Sì | ||
| Oggetto | Stringa | Sì |
OpenAI.LocalShellCallStatus
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | in_progresscompletedincomplete |
OpenAI.LocalShellExecAction
Eseguire un comando shell nel server.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Comando | matrice di stringhe | Comando da eseguire. | Sì | |
| Env | Oggetto | Variabili di ambiente da impostare per il comando. | Sì | |
| timeout_ms | integer o null | No | ||
| digitare | Enum | Tipo dell'azione della shell locale. Sempre exec.Valori possibili: exec |
Sì | |
| Utente | stringa o null | No | ||
| working_directory | stringa o null | No |
OpenAI.LocalShellToolParam
Strumento che consente al modello di eseguire comandi della shell in un ambiente locale.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Tipo dello strumento della shell locale. Sempre local_shell.Valori possibili: local_shell |
Sì |
OpenAI.LogProb
Probabilità del log di un token.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Byte | matrice di numeri interi | Sì | ||
| logprob | Numero | Sì | ||
| Token | Stringa | Sì | ||
| top_logprobs | matrice di OpenAI.TopLogProb | Sì |
OpenAI.MCPListToolsTools
Strumento disponibile in un server MCP.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Annotazioni | OpenAI.MCPListToolsToolAnnotations o null | No | ||
| Descrizione | stringa o null | No | ||
| input_schema | OpenAI.MCPListToolsToolInputSchema | Sì | ||
| Nome | Stringa | Nome dello strumento. | Sì |
OpenAI.MCPListToolsToolAnnotations
Tipo: oggetto
OpenAI.MCPListToolsToolInputSchema
Tipo: oggetto
OpenAI.MCPTool
Concedere al modello l'accesso a strumenti aggiuntivi tramite server MCP (Model Context Protocol) remoti. Altre informazioni su MCP.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| allowed_tools | matrice di string o OpenAI.MCPToolFilter o null | No | ||
| Autorizzazione | Stringa | Token di accesso OAuth che può essere usato con un server MCP remoto, con un URL del server MCP personalizzato o un connettore di servizi. Applicazione deve gestire il flusso di autorizzazione OAuth e fornire il token qui. |
No | |
| connector_id | Enum | Identificatore per i connettori del servizio, ad esempio quelli disponibili in ChatGPT. Uno deiserver_url o connector_id deve essere fornito. Altre informazioni sul servizioconnettori qui. I valori attualmente supportati connector_id sono:-Dropbox: connector_dropbox-Gmail: connector_gmail- Google Calendar: connector_googlecalendar- Google Drive: connector_googledrive- Microsoft Teams: connector_microsoftteams- Calendario di Outlook: connector_outlookcalendar- Posta elettronica di Outlook: connector_outlookemail-Sharepoint: connector_sharepointValori possibili: connector_dropbox, connector_gmail, connector_googlecalendar, connector_googledrive, connector_microsoftteams, connector_outlookcalendar, connector_outlookemail, connector_sharepoint |
No | |
| Intestazioni | oggetto o null | No | ||
| require_approval | OpenAI.MCPToolRequireApproval o stringa o null | No | ||
| server_description | Stringa | Descrizione facoltativa del server MCP, usata per fornire più contesto. | No | |
| server_label | Stringa | Etichetta per questo server MCP, usata per identificarla nelle chiamate degli strumenti. | Sì | |
| server_url | Stringa | URL del server MCP. Uno di server_url o connector_id deve essereFornito. |
No | |
| digitare | Enum | Tipo dello strumento MCP. Sempre mcp.Valori possibili: mcp |
Sì |
OpenAI.MCPToolCallStatus
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | in_progresscompletedincompletecallingfailed |
OpenAI.MCPToolFilter
Oggetto filtro per specificare gli strumenti consentiti.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Read_only | Boolean | Indica se uno strumento modifica o meno i dati o è di sola lettura. Se un oggetto Il server MCP viene annotato con readOnlyHint,corrisponderà a questo filtro. |
No | |
| tool_names | matrice di stringhe | Elenco dei nomi degli strumenti consentiti. | No |
OpenAI.MCPToolRequireApproval
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Sempre | OpenAI.MCPToolFilter | Oggetto filtro per specificare gli strumenti consentiti. | No | |
| Mai | OpenAI.MCPToolFilter | Oggetto filtro per specificare gli strumenti consentiti. | No |
OpenAI.MessageContent
Discriminare per OpenAI.MessageContent
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
image_url |
OpenAI.MessageContentImageUrlObject |
text |
OpenAI.MessageContentTextObject |
refusal |
OpenAI.MessageContentRefusalObject |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.MessageContentType | Sì |
OpenAI.MessageContentImageFileObject
Fa riferimento a un file di immagine nel contenuto di un messaggio.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| image_file | OpenAI.MessageContentImageFileObjectImageFile | Sì | ||
| digitare | Enum | Sempre image_file.Valori possibili: image_file |
Sì |
OpenAI.MessageContentImageFileObjectImageFile
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dettaglio | Enum | Valori possibili: auto, low, high |
No | |
| File_id | Stringa | Sì |
OpenAI.MessageContentImageUrlObject
Fa riferimento a un URL di immagine nel contenuto di un messaggio.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| image_url | OpenAI.MessageContentImageUrlObjectImageUrl | Sì | ||
| digitare | Enum | La parte del tipo di contenuto. Valori possibili: image_url |
Sì |
OpenAI.MessageContentImageUrlObjectImageUrl
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dettaglio | Enum | Valori possibili: auto, low, high |
No | |
| Url | Stringa | Sì |
OpenAI.MessageContentRefusalObject
Contenuto di rifiuto generato dall'assistente.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Rifiuto | Stringa | Sì | ||
| digitare | Enum | Sempre refusal.Valori possibili: refusal |
Sì |
OpenAI.MessageContentTextAnnotationsFileCitationObject
Una citazione all'interno del messaggio che indica una citazione specifica da un file specifico associato all'assistente o al messaggio. Generato quando l'assistente usa lo strumento "file_search" per cercare nei file.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| end_index | Intero | Vincoli: min: 0 | Sì | |
| file_citation | OpenAI.MessageContentTextAnnotationsFileCitationObjectFileCitation | Sì | ||
| start_index | Intero | Vincoli: min: 0 | Sì | |
| Testo | Stringa | Il testo nel contenuto del messaggio che deve essere sostituito. | Sì | |
| digitare | Enum | Sempre file_citation.Valori possibili: file_citation |
Sì |
OpenAI.MessageContentTextAnnotationsFileCitationObjectFileCitation
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| File_id | Stringa | Sì |
OpenAI.MessageContentTextAnnotationsFilePathObject
Un URL per il file generato quando l'assistente ha usato lo code_interpreter strumento per generare un file.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| end_index | Intero | Vincoli: min: 0 | Sì | |
| file_path | OpenAI.MessageContentTextAnnotationsFilePathObjectFilePath | Sì | ||
| start_index | Intero | Vincoli: min: 0 | Sì | |
| Testo | Stringa | Il testo nel contenuto del messaggio che deve essere sostituito. | Sì | |
| digitare | Enum | Sempre file_path.Valori possibili: file_path |
Sì |
OpenAI.MessageContentTextAnnotationsFilePathObjectFilePath
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| File_id | Stringa | Sì |
OpenAI.MessageContentTextObject
Il contenuto testuale che fa parte di un messaggio.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Testo | OpenAI.MessageContentTextObjectTextText | Sì | ||
| digitare | Enum | Sempre text.Valori possibili: text |
Sì |
OpenAI.MessageContentTextObjectTextText
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Annotazioni | matrice di OpenAI.TextAnnotation | Sì | ||
| Valore | Stringa | Sì |
OpenAI.MessageContentType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | image_fileimage_urltextrefusal |
OpenAI.MessageObject
Rappresenta un messaggio all'interno di un thread.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| assistant_id | stringa o null | Sì | ||
| Allegati | matrice di OpenAI.MessageObjectAttachments o null | Sì | ||
| completed_at | stringa o null | Sì | ||
| Contenuto | matrice di OpenAI.MessageContent | Il contenuto del messaggio è formato in un insieme di testo e/o immagini. | Sì | |
| created_at | Intero | Il timestamp Unix (in secondi) indica quando il messaggio è stato creato. | Sì | |
| Id | Stringa | L'identificatore, che può essere consultato negli endpoint API. | Sì | |
| incomplete_at | stringa o null | Sì | ||
| incomplete_details | OpenAI.MessageObjectIncompleteDetails o null | Sì | ||
| Metadati | OpenAI.Metadata o Null | Sì | ||
| Oggetto | Enum | Il tipo di oggetto, che è sempre thread.message.Valori possibili: thread.message |
Sì | |
| Ruolo | Enum | L'entità che ha prodotto il messaggio. Uno di user oppure assistant.Valori possibili: user, assistant |
Sì | |
| run_id | stringa o null | Sì | ||
| Stato | Enum | Lo stato del messaggio, che può essere o in_progress, incomplete, oppure completed.Valori possibili: in_progress, incomplete, completed |
Sì | |
| thread_id | Stringa | ID thread a cui appartiene il messaggio. | Sì |
OpenAI.MessageObjectAttachments
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| File_id | Stringa | No | ||
| Strumenti | matrice di OpenAI.AssistantToolsCode o OpenAI.AssistantToolsFileSearchTypeOnly | No |
OpenAI.MessageObjectIncompleteDetails
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Motivo | Enum | Valori possibili: content_filter, max_tokens, run_cancelled, run_expired, run_failed |
Sì |
OpenAI.MessageRequestContentTextObject
Il contenuto testuale che fa parte di un messaggio.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Testo | Stringa | Contenuto di testo da inviare al modello | Sì | |
| digitare | Enum | Sempre text.Valori possibili: text |
Sì |
OpenAI.MessageRole
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | unknownuserassistantsystemcriticdiscriminatordevelopertool |
OpenAI.MessageStatus
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | in_progresscompletedincomplete |
OpenAI.Metadata
Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard. I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri.
Tipo: oggetto
OpenAI.Model
Descrive un'offerta di modello OpenAI che può essere usata con l'API.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Creato | Intero | Timestamp Unix (in secondi) al momento della creazione del modello. | Sì | |
| Id | Stringa | Identificatore del modello, a cui è possibile fare riferimento negli endpoint API. | Sì | |
| Oggetto | Enum | Tipo di oggetto, che è sempre "model". Valori possibili: model |
Sì | |
| owned_by | Stringa | Organizzazione proprietaria del modello. | Sì |
OpenAI.ModifyMessageRequest
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Metadati | OpenAI.Metadata o Null | No |
OpenAI.ModifyRunRequest
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Metadati | OpenAI.Metadata o Null | No |
OpenAI.ModifyThreadRequest
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Metadati | OpenAI.Metadata o Null | No | ||
| tool_resources | OpenAI.ModifyThreadRequestToolResources o null | No |
OpenAI.ModifyThreadRequestToolResources
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| code_interpreter | OpenAI.ModifyThreadRequestToolResourcesCodeInterpreter | No | ||
| file_search | OpenAI.ModifyThreadRequestToolResourcesFileSearch | No |
OpenAI.ModifyThreadRequestToolResourcesCodeInterpreter
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| file_ids | matrice di stringhe | No |
OpenAI.ModifyThreadRequestToolResourcesFileSearch
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| vector_store_ids | matrice di stringhe | No |
OpenAI.Move
Un'azione di movimento del topo.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Specifica il tipo di evento. Per un'azione di spostamento, questa proprietà è sempre impostato su move.Valori possibili: move |
Sì | |
| X | Intero | La coordinata x a cui spostarsi. | Sì | |
| Y | Intero | La coordinata Y su cui spostarsi. | Sì |
OpenAI.NoiseReductionType
Tipo di riduzione del rumore.
near_field è per microfoni ravvicinati come le cuffie, è far_field per microfoni a campo lontano come laptop o microfoni di sala conferenze.
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | near_fieldfar_field |
OpenAI.OpenAIFile
L'oggetto File rappresenta un documento caricato in OpenAI.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Byte | Intero | Dimensioni del file, in byte. | Sì | |
| created_at | Intero | Timestamp Unix (in secondi) per il momento in cui è stato creato il file. | Sì | |
| expires_at | Intero | Timestamp Unix (in secondi) per la scadenza del file. | No | |
| Filename | Stringa | Il nome del file. | Sì | |
| Id | Stringa | Identificatore di file a cui è possibile fare riferimento negli endpoint API. | Sì | |
| Oggetto | Enum | Il tipo di oggetto, che è sempre file.Valori possibili: file |
Sì | |
| Scopo | Enum | Scopo previsto del file. I valori supportati sono assistants, assistants_output, batchbatch_output, fine-tune e fine-tune-results.Valori possibili: assistants, assistants_output, batchbatch_output, fine-tune, , fine-tune-resultsevals |
Sì | |
| Stato | Enum | Valori possibili: uploaded, pending, runningprocessed, error, , deletingdeleted |
Sì | |
| status_details | stringa (deprecata) | Deprecato. Per informazioni dettagliate sul motivo per cui una convalida del file di training di ottimizzazione non è riuscita, vedere il error campo in fine_tuning.job. |
No |
OpenAI.OtherChunkingStrategyResponseParam
Questo viene restituito quando la strategia di schunking è sconosciuta. Tipicamente, ciò accade perché il file era indicizzato prima che il chunking_strategy concetto venisse introdotto nell'API.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Sempre other.Valori possibili: other |
Sì |
OpenAI.OutputContent
Discriminare per OpenAI.OutputContent
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
output_text |
OpenAI.OutputContentOutputTextContent |
refusal |
OpenAI.OutputContentRefusalContent |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.OutputContentType | Sì |
OpenAI.OutputContentOutputTextContent
Un testo prodotto dal modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Annotazioni | matrice di OpenAI.Annotation | Le annotazioni dell'output del testo. | Sì | |
| logprobs | matrice di OpenAI.LogProb | No | ||
| Testo | Stringa | Il testo prodotto dal modello. | Sì | |
| digitare | Enum | Il tipo del testo in uscita. Sempre output_text.Valori possibili: output_text |
Sì |
OpenAI.OutputContentRefusalContent
Un rifiuto da parte del modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Rifiuto | Stringa | La spiegazione del rifiuto dal modello. | Sì | |
| digitare | Enum | Il tipo di rifiuto. Sempre refusal.Valori possibili: refusal |
Sì |
OpenAI.OutputContentType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | output_textrefusalreasoning_text |
OpenAI.OutputItem
Discriminare per OpenAI.OutputItem
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
output_message |
OpenAI.OutputItemOutputMessage |
file_search_call |
OpenAI.OutputItemFileSearchToolCall |
function_call |
OpenAI.OutputItemFunctionToolCall |
web_search_call |
OpenAI.OutputItemWebSearchToolCall |
computer_call |
OpenAI.OutputItemComputerToolCall |
reasoning |
OpenAI.OutputItemReasoningItem |
compaction |
OpenAI.OutputItemCompactionBody |
image_generation_call |
OpenAI.OutputItemImageGenToolCall |
code_interpreter_call |
OpenAI.OutputItemCodeInterpreterToolCall |
local_shell_call |
OpenAI.OutputItemLocalShellToolCall |
shell_call |
OpenAI.OutputItemFunctionShellCall |
shell_call_output |
OpenAI.OutputItemFunctionShellCallOutput |
apply_patch_call |
OpenAI.OutputItemApplyPatchToolCall |
apply_patch_call_output |
OpenAI.OutputItemApplyPatchToolCallOutput |
mcp_call |
OpenAI.OutputItemMcpToolCall |
mcp_list_tools |
OpenAI.OutputItemMcpListTools |
mcp_approval_request |
OpenAI.OutputItemMcpApprovalRequest |
custom_tool_call |
OpenAI.OutputItemCustomToolCall |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.OutputItemType | Sì |
OpenAI.OutputItemApplyPatchToolCall
Chiamata dello strumento che applica differenze di file creando, eliminando o aggiornando i file.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| call_id | Stringa | ID univoco della chiamata dello strumento applica patch generata dal modello. | Sì | |
| created_by | Stringa | ID dell'entità che ha creato questa chiamata allo strumento. | No | |
| Id | Stringa | ID univoco della chiamata dello strumento apply patch. Popolata quando questo elemento viene restituito tramite API. | Sì | |
| Operazione | OpenAI.ApplyPatchFileOperation | Una delle operazioni di create_file, delete_file o update_file applicate tramite apply_patch. | Sì | |
| Tipo └* | OpenAI.ApplyPatchFileOperationType | Sì | ||
| Stato | OpenAI.ApplyPatchCallStatus | Sì | ||
| digitare | Enum | Tipo dell'elemento. Sempre apply_patch_call.Valori possibili: apply_patch_call |
Sì |
OpenAI.OutputItemApplyPatchToolCallOutput
Output generato da una chiamata di applicazione dello strumento patch.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| call_id | Stringa | ID univoco della chiamata dello strumento applica patch generata dal modello. | Sì | |
| created_by | Stringa | ID dell'entità che ha creato l'output della chiamata dello strumento. | No | |
| Id | Stringa | ID univoco dell'output della chiamata dello strumento patch apply. Popolata quando questo elemento viene restituito tramite API. | Sì | |
| Output | stringa o null | No | ||
| Stato | OpenAI.ApplyPatchCallOutputStatus | Sì | ||
| digitare | Enum | Tipo dell'elemento. Sempre apply_patch_call_output.Valori possibili: apply_patch_call_output |
Sì |
OpenAI.OutputItemCodeInterpreterToolCall
Una chiamata a uno strumento per eseguire codice.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Codice | stringa o null | Sì | ||
| container_id | Stringa | ID del contenitore usato per eseguire il codice. | Sì | |
| Id | Stringa | L'ID univoco dello strumento interprete del codice chiama. | Sì | |
| Uscite | matrice di OpenAI.CodeInterpreterOutputLogs o OpenAI.CodeInterpreterOutputImage o null | Sì | ||
| Stato | Enum | Lo stato dello strumento di interprete del codice chiamato. I valori validi sono in_progress, completedincomplete, interpreting, e failed.Valori possibili: in_progress, completed, incomplete, interpreting, failed |
Sì | |
| digitare | Enum | Il tipo che chiama lo strumento dell'interprete del codice. Sempre code_interpreter_call.Valori possibili: code_interpreter_call |
Sì |
OpenAI.OutputItemCompactionBody
Elemento di compattazione generato dall'APIv1/responses/compact.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| created_by | Stringa | Identificatore dell'attore che ha creato l'elemento. | No | |
| encrypted_content | Stringa | Contenuto crittografato prodotto dalla compattazione. | Sì | |
| Id | Stringa | ID univoco dell'elemento di compattazione. | Sì | |
| digitare | Enum | Tipo dell'elemento. Sempre compaction.Valori possibili: compaction |
Sì |
OpenAI.OutputItemComputerToolCall
Un richiamo a uno strumento per l'uso del computer. Per altre informazioni, vedere la guida all'uso del computer .
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Azione | OpenAI.ComputerAction | Sì | ||
| call_id | Stringa | Un identificatore usato quando si risponde alla chiamata dello strumento con output. | Sì | |
| Id | Stringa | L'ID unico della chiamata computerizzata. | Sì | |
| pending_safety_checks | matrice di OpenAI.ComputerCallSafetyCheckParam | I controlli di sicurezza in attesa per la chiamata al computer. | Sì | |
| Stato | Enum | Lo stato dell'oggetto. Uno di in_progress, completedoincomplete. Popolati quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
Sì | |
| digitare | Enum | Il tipo di chiamata al computer. Sempre computer_call.Valori possibili: computer_call |
Sì |
OpenAI.OutputItemCustomToolCall
Chiamata a uno strumento personalizzato creato dal modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| call_id | Stringa | Identificatore usato per eseguire il mapping di questa chiamata personalizzata a un output di chiamata dello strumento. | Sì | |
| Id | Stringa | ID univoco della chiamata dello strumento personalizzato nella piattaforma OpenAI. | No | |
| Input | Stringa | Input per la chiamata personalizzata dello strumento generata dal modello. | Sì | |
| Nome | Stringa | Nome dello strumento personalizzato chiamato. | Sì | |
| digitare | Enum | Tipo di chiamata allo strumento personalizzato. Sempre custom_tool_call.Valori possibili: custom_tool_call |
Sì |
OpenAI.OutputItemFileSearchToolCall
I risultati di uno strumento di ricerca file chiamano. Per altre informazioni, vedere la guida alla ricerca di file .
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Id | Stringa | L'ID univoco dello strumento di ricerca file chiama. | Sì | |
| Query | matrice di stringhe | Le query usate per cercare file. | Sì | |
| Risultati | matrice di OpenAI.FileSearchToolCallResults o null | No | ||
| Stato | Enum | Lo stato dello strumento di ricerca file chiamato. Uno di in_progress,searching, incomplete o failed,Valori possibili: in_progress, searching, completed, incomplete, failed |
Sì | |
| digitare | Enum | Il tipo di chiamata dello strumento di ricerca file. Sempre file_search_call.Valori possibili: file_search_call |
Sì |
OpenAI.OutputItemFunctionShellCall
Chiamata dello strumento che esegue uno o più comandi della shell in un ambiente gestito.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Azione | OpenAI.FunctionShellAction | Eseguire un comando shell. | Sì | |
| Comandi └* | matrice di stringhe | Sì | ||
| └max_output_length | integer o null | Sì | ||
| └timeout_ms | integer o null | Sì | ||
| call_id | Stringa | ID univoco della chiamata dello strumento shell generata dal modello. | Sì | |
| created_by | Stringa | ID dell'entità che ha creato questa chiamata allo strumento. | No | |
| Id | Stringa | ID univoco della chiamata dello strumento shell. Popolata quando questo elemento viene restituito tramite API. | Sì | |
| Stato | OpenAI.LocalShellCallStatus | Sì | ||
| digitare | Enum | Tipo dell'elemento. Sempre shell_call.Valori possibili: shell_call |
Sì |
OpenAI.OutputItemFunctionShellCallOutput
Output di una chiamata dello strumento shell generata.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| call_id | Stringa | ID univoco della chiamata dello strumento shell generata dal modello. | Sì | |
| created_by | Stringa | Identificatore dell'attore che ha creato l'elemento. | No | |
| Id | Stringa | ID univoco dell'output della chiamata della shell. Popolata quando questo elemento viene restituito tramite API. | Sì | |
| max_output_length | integer o null | Sì | ||
| Output | matrice di OpenAI.FunctionShellCallOutputContent | Matrice di contenuti di output delle chiamate shell | Sì | |
| digitare | Enum | Tipo dell'output delle chiamate della shell. Sempre shell_call_output.Valori possibili: shell_call_output |
Sì |
OpenAI.OutputItemFunctionToolCall
Una chiamata a uno strumento per eseguire una funzione. Per altre informazioni, vedere la guida alla chiamata di funzione .
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Argomenti | Stringa | Una stringa JSON degli argomenti da passare alla funzione. | Sì | |
| call_id | Stringa | L'ID univoco della chiamata dello strumento funzionale generata dal modello. | Sì | |
| Id | Stringa | L'ID univoco dello strumento di funzione chiama. | No | |
| Nome | Stringa | Il nome della funzione da eseguire. | Sì | |
| Stato | Enum | Lo stato dell'oggetto. Uno di in_progress, completedoincomplete. Popolati quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
No | |
| digitare | Enum | Il tipo di chiamata dello strumento funzionale. Sempre function_call.Valori possibili: function_call |
Sì |
OpenAI.OutputItemImageGenToolCall
Richiesta di generazione di immagini effettuata dal modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Id | Stringa | ID univoco della chiamata di generazione dell'immagine. | Sì | |
| Risultato | stringa o null | Sì | ||
| Stato | Enum | Stato della chiamata di generazione dell'immagine. Valori possibili: in_progress, completed, generating, failed |
Sì | |
| digitare | Enum | Tipo della chiamata di generazione dell'immagine. Sempre image_generation_call.Valori possibili: image_generation_call |
Sì |
OpenAI.OutputItemLocalShellToolCall
Chiamata dello strumento per eseguire un comando nella shell locale.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Azione | OpenAI.LocalShellExecAction | Eseguire un comando shell nel server. | Sì | |
| call_id | Stringa | ID univoco della chiamata dello strumento shell locale generata dal modello. | Sì | |
| Id | Stringa | ID univoco della chiamata della shell locale. | Sì | |
| Stato | Enum | Stato della chiamata della shell locale. Valori possibili: in_progress, completed, incomplete |
Sì | |
| digitare | Enum | Tipo di chiamata della shell locale. Sempre local_shell_call.Valori possibili: local_shell_call |
Sì |
OpenAI.OutputItemMcpApprovalRequest
Richiesta di approvazione umana di una chiamata a uno strumento.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Argomenti | Stringa | Stringa JSON di argomenti per lo strumento. | Sì | |
| Id | Stringa | ID univoco della richiesta di approvazione. | Sì | |
| Nome | Stringa | Nome dello strumento da eseguire. | Sì | |
| server_label | Stringa | Etichetta del server MCP che effettua la richiesta. | Sì | |
| digitare | Enum | Tipo dell'elemento. Sempre mcp_approval_request.Valori possibili: mcp_approval_request |
Sì |
OpenAI.OutputItemMcpListTools
Elenco di strumenti disponibili in un server MCP.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Errore | stringa o null | No | ||
| Id | Stringa | ID univoco dell'elenco. | Sì | |
| server_label | Stringa | Etichetta del server MCP. | Sì | |
| Strumenti | matrice di OpenAI.MCPListToolsTool | Strumenti disponibili nel server. | Sì | |
| digitare | Enum | Tipo dell'elemento. Sempre mcp_list_tools.Valori possibili: mcp_list_tools |
Sì |
OpenAI.OutputItemMcpToolCall
Chiamata di uno strumento in un server MCP.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| approval_request_id | stringa o null | No | ||
| Argomenti | Stringa | Stringa JSON degli argomenti passati allo strumento. | Sì | |
| Errore | stringa o null | No | ||
| Id | Stringa | ID univoco della chiamata allo strumento. | Sì | |
| Nome | Stringa | Nome dello strumento eseguito. | Sì | |
| Output | stringa o null | No | ||
| server_label | Stringa | Etichetta del server MCP che esegue lo strumento. | Sì | |
| Stato | OpenAI.MCPToolCallStatus | No | ||
| digitare | Enum | Tipo dell'elemento. Sempre mcp_call.Valori possibili: mcp_call |
Sì |
OpenAI.OutputItemOutputMessage
Un messaggio di output dal modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Contenuto | matrice di OpenAI.OutputMessageContent | Il contenuto del messaggio di output. | Sì | |
| Id | Stringa | L'ID univoco del messaggio di output. | Sì | |
| Ruolo | Enum | Il ruolo del messaggio di output. Sempre assistant.Valori possibili: assistant |
Sì | |
| Stato | Enum | Lo stato del messaggio inserito. Uno di in_progress, completedoincomplete. Popolati quando gli input input vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
Sì | |
| digitare | Enum | Il tipo del messaggio di output. Sempre message.Valori possibili: output_message |
Sì |
OpenAI.OutputItemReasoningItem
Una descrizione della catena di pensiero utilizzata da un modello di ragionamento durante la generazione di una risposta. Assicurarsi di includere questi elementi nell'API input Risposte per i turni successivi di una conversazione se si gestisce manualmente il contesto.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Contenuto | matrice di OpenAI.ReasoningTextContent | Ragionamento del contenuto del testo. | No | |
| encrypted_content | stringa o null | No | ||
| Id | Stringa | L'identificatore unico del contenuto di ragionamento. | Sì | |
| Stato | Enum | Lo stato dell'oggetto. Uno di in_progress, completedoincomplete. Popolati quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
No | |
| Riepilogo | matrice di OpenAI.Summary | Ragionamento del contenuto di riepilogo. | Sì | |
| digitare | Enum | Il tipo di oggetto. Sempre reasoning.Valori possibili: reasoning |
Sì |
OpenAI.OutputItemType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | output_messagefile_search_callfunction_callweb_search_callcomputer_callreasoningcompactionimage_generation_callcode_interpreter_calllocal_shell_callshell_callshell_call_outputapply_patch_callapply_patch_call_outputmcp_callmcp_list_toolsmcp_approval_requestcustom_tool_call |
OpenAI.OutputItemWebSearchToolCall
Risultati di una chiamata allo strumento di ricerca Web. Per altre informazioni, vedere la guida alla ricerca Web .
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Azione | OpenAI.WebSearchActionSearch o OpenAI.WebSearchActionOpenPage o OpenAI.WebSearchActionFind | Oggetto che descrive l'azione specifica eseguita in questa chiamata di ricerca Web. Include informazioni dettagliate sul modo in cui il modello ha usato il Web (ricerca, open_page, ricerca). |
Sì | |
| Id | Stringa | ID univoco della chiamata dello strumento di ricerca Web. | Sì | |
| Stato | Enum | Stato della chiamata dello strumento di ricerca Web. Valori possibili: in_progress, searching, completed, failed |
Sì | |
| digitare | Enum | Tipo di chiamata dello strumento di ricerca Web. Sempre web_search_call.Valori possibili: web_search_call |
Sì |
OpenAI.OutputMessageContent
Discriminatorio per OpenAI.OutputMessageContent
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
output_text |
OpenAI.OutputMessageContentOutputTextContent |
refusal |
OpenAI.OutputMessageContentRefusalContent |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.OutputMessageContentType | Sì |
OpenAI.OutputMessageContentOutputTextContent
Un testo prodotto dal modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Annotazioni | matrice di OpenAI.Annotation | Le annotazioni dell'output del testo. | Sì | |
| logprobs | matrice di OpenAI.LogProb | No | ||
| Testo | Stringa | Il testo prodotto dal modello. | Sì | |
| digitare | Enum | Il tipo del testo in uscita. Sempre output_text.Valori possibili: output_text |
Sì |
OpenAI.OutputMessageContentRefusalContent
Un rifiuto da parte del modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Rifiuto | Stringa | La spiegazione del rifiuto dal modello. | Sì | |
| digitare | Enum | Il tipo di rifiuto. Sempre refusal.Valori possibili: refusal |
Sì |
OpenAI.OutputMessageContentType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | output_textrefusal |
OpenAI.OutputTextContent
Un testo prodotto dal modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Annotazioni | matrice di OpenAI.Annotation | Le annotazioni dell'output del testo. | Sì | |
| logprobs | matrice di OpenAI.LogProb | No | ||
| Testo | Stringa | Il testo prodotto dal modello. | Sì | |
| digitare | Enum | Il tipo del testo in uscita. Sempre output_text.Valori possibili: output_text |
Sì |
OpenAI.ParallelToolCalls
Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento.
Tipo: booleano
OpenAI.PredictionContent
Contenuto statico previsto in output, come il contenuto di un file di testo che viene rigenerato.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Contenuto | stringa o matrice di OpenAI.ChatCompletionRequestMessageContentPartText | Il contenuto che dovrebbe essere abbinato quando si genera una risposta al modello. Se i token generati corrispondono a questo contenuto, l'intera risposta del modello può essere restituito molto più rapidamente. |
Sì | |
| digitare | Enum | Il tipo di contenuto previsto che vuoi fornire. Questo tipo è attualmente sempre content.Valori possibili: content |
Sì |
OpenAI.Prompt
Riferimento a un modello di richiesta e alle relative variabili. Altre informazioni.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Id | Stringa | Identificatore univoco del modello di richiesta da usare. | Sì | |
| Variabili | OpenAI.ResponsePromptVariables o null | No | ||
| Versione | stringa o null | No |
OpenAI.RankerVersionType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | autodefault-2024-11-15 |
OpenAI.RankingOptions
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| hybrid_search | OpenAI.HybridSearchOptions | No | ||
| └embedding_weight | Numero | Peso dell'incorporamento nella fusione di rango reciproca. | Sì | |
| └text_weight | Numero | Peso del testo nella fusione di rango reciproco. | Sì | |
| ranker | OpenAI.RankerVersionType | No | ||
| score_threshold | Numero | La soglia di punteggio per la ricerca file, un numero compreso tra 0 e 1. I numeri più vicini a 1 cercheranno di restituire solo i risultati più rilevanti, ma potrebbero restituire meno risultati. | No |
OpenAI.RealtimeAudioFormats
Discriminare per OpenAI.RealtimeAudioFormats
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
audio/pcm |
OpenAI.RealtimeAudioFormatsAudioPcm |
audio/pcmu |
OpenAI.RealtimeAudioFormatsAudioPcmu |
audio/pcma |
OpenAI.RealtimeAudioFormatsAudioPcma |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.RealtimeAudioFormatsType | Sì |
OpenAI.RealtimeAudioFormatsAudioPcm
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Tasso | Enum | Valori possibili: 24000 |
No | |
| digitare | Enum | Valori possibili: audio/pcm |
Sì |
OpenAI.RealtimeAudioFormatsAudioPcma
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Valori possibili: audio/pcma |
Sì |
OpenAI.RealtimeAudioFormatsAudioPcmu
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Valori possibili: audio/pcmu |
Sì |
OpenAI.RealtimeAudioFormatsType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | audio/pcmaudio/pcmuaudio/pcma |
OpenAI.RealtimeCallCreateRequest
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Sdp | Stringa | Offerta SDP (WebRTC Session Description Protocol) generata dal chiamante. | Sì | |
| Sessione | OpenAI.RealtimeSessionCreateRequestGA | Configurazione in tempo reale degli oggetti di sessione. | No | |
| └* audio | OpenAI.RealtimeSessionCreateRequestGAAudio | Configurazione per l'input e l'output audio. | No | |
| └* include | matrice di stringhe | Campi aggiuntivi da includere negli output del server.item.input_audio_transcription.logprobs: includere logprobs per la trascrizione audio di input. |
No | |
| └* istruzioni | Stringa | Le istruzioni di sistema predefinite (cioè il messaggio di sistema) precedevano le chiamate del modello. Questo campo permette al cliente di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta( ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono garantite dal modello, ma forniscono indicazioni sul comportamento desiderato. Si noti che il server imposta le istruzioni predefinite che verranno utilizzate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione. |
No | |
| └max_output_tokens | integer (vedere modelli validi di seguito) | Numero massimo di token di output per una singola risposta di assistente, inclusivo delle chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 a limitare i token di output o inf per il numero massimo di token disponibili per unmodello specificato. Di default è inf. |
No | |
| Modello └* | Stringa | Modello in tempo reale utilizzato per questa sessione. | No | |
| └output_modalities | matrice di stringhe | L'insieme delle modalità a cui il modello può rispondere. L'impostazione ["audio"]predefinita è , che indicache il modello risponderà con audio più una trascrizione. ["text"] può essere usato per fareil modello risponde solo con testo. Non è possibile richiedere e textaudio allo stesso tempo. |
No | ['audio'] |
| └* prompt | OpenAI.Prompt | Riferimento a un modello di richiesta e alle relative variabili. Altre informazioni. |
No | |
| └tool_choice | OpenAI.ToolChoiceOptions o OpenAI.ToolChoiceFunction o OpenAI.ToolChoiceMCP | Come il modello sceglie gli strumenti. Specificare una delle modalità stringa o forzare una specifica strumento function/MCP. |
No | Automatico |
| Strumenti └* | matrice di OpenAI.RealtimeFunctionTool o OpenAI.MCPTool | Strumenti disponibili per il modello. | No | |
| └> traccia | string o OpenAI.RealtimeSessionCreateRequestGATracing o null | "" Impostare su null per disabilitare la traccia. Una volta la traccia è abilitata per una sessione, la configurazione non può essere modificata. auto creerà una traccia per la sessione con i valori predefiniti pernome del flusso di lavoro, ID gruppo e metadati. |
No | Automatico |
| └\ troncamento | OpenAI.RealtimeTruncation | Quando il numero di token in una conversazione supera il limite di token di input del modello, la conversazione viene troncata, ovvero i messaggi (a partire dal meno recente) non verranno inclusi nel contesto del modello. Un modello di contesto di 32k con 4.096 token di output massimo può includere solo 28.224 token nel contesto prima del troncamento. I client possono configurare il comportamento di troncamento con un limite massimo di token inferiore, un modo efficace per controllare l'utilizzo e i costi dei token. Il troncamento ridurrà il numero di token memorizzati nella cache al turno successivo (busting the cache), poiché i messaggi vengono eliminati dall'inizio del contesto. Tuttavia, i client possono anche configurare il troncamento per conservare i messaggi fino a una frazione delle dimensioni massime del contesto, riducendo così la necessità di troncamenti futuri e migliorando così la frequenza della cache. Il troncamento può essere disabilitato completamente, il che significa che il server non verrà mai troncato, ma restituirà invece un errore se la conversazione supera il limite di token di input del modello. |
No | |
| Tipo └* | Enum | Tipo di sessione da creare. Sempre realtime per l'API In tempo reale.Valori possibili: realtime |
Sì |
OpenAI.RealtimeCallReferRequest
Parametri necessari per trasferire una chiamata SIP a una nuova destinazione usando l'API Realtime.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| target_uri | Stringa | URI che dovrebbe essere visualizzato nell'intestazione sip Refer-To. Supporta valori cometel:+14155550123 o sip:agent\@example.com. |
Sì |
OpenAI.RealtimeCallRejectRequest
Parametri usati per rifiutare una chiamata SIP in ingresso gestita dall'API Realtime.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| status_code | Intero | Codice di risposta SIP da inviare al chiamante. Il valore predefinito è 603 (rifiuta)quando viene omesso. |
No |
OpenAI.RealtimeCreateClientSecretRequest
Creare una sessione e un segreto client per l'API In tempo reale. La richiesta può specificare una configurazione di sessione in tempo reale o di trascrizione. Altre informazioni sull'API Realtime.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| expires_after | OpenAI.RealtimeCreateClientSecretRequestExpiresAfter | No | ||
| Ancoraggio └* | Enum | Valori possibili: created_at |
No | |
| └> secondi | Intero | Vincoli: min: 10, max: 7200 | No | 600 |
| Sessione | OpenAI.RealtimeSessionCreateRequestUnion | No | ||
| Tipo └* | OpenAI.RealtimeSessionCreateRequestUnionType | Sì |
OpenAI.RealtimeCreateClientSecretRequestExpiresAfter
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| ancora | Enum | Valori possibili: created_at |
No | |
| Secondi | Intero | Vincoli: min: 10, max: 7200 | No | 600 |
OpenAI.RealtimeCreateClientSecretResponse
Risposta dalla creazione di una sessione e di un segreto client per l'API Realtime.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| expires_at | Intero | Timestamp di scadenza per il segreto client, espresso in secondi dall'epoca. | Sì | |
| Sessione | OpenAI.RealtimeSessionCreateResponseUnion | Sì | ||
| Tipo └* | OpenAI.RealtimeSessionCreateResponseUnionType | Sì | ||
| Valore | Stringa | Valore del segreto client generato. | Sì |
OpenAI.RealtimeFunctionTool
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Descrizione | Stringa | Descrizione della funzione, incluse indicazioni su quando e come per chiamarlo e indicazioni su cosa indicare all'utente quando si chiama (se qualcosa). |
No | |
| Nome | Stringa | Il nome della funzione. | No | |
| Parametri | OpenAI.RealtimeFunctionToolParameters | No | ||
| digitare | Enum | Tipo dello strumento, ad esempio function.Valori possibili: function |
No |
OpenAI.RealtimeFunctionToolParameters
Tipo: oggetto
OpenAI.RealtimeSessionCreateRequest
Una nuova configurazione di sessione in tempo reale, con una chiave effimera. Il TTL predefinito per i tasti è un minuto.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| client_secret | OpenAI.RealtimeSessionCreateRequestClientSecret | Sì | ||
| └expires_at | Intero | Sì | ||
| └* valore | Stringa | Sì | ||
| input_audio_format | Stringa | Il formato dell'audio in ingresso. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw. |
No | |
| input_audio_transcription | OpenAI.RealtimeSessionCreateRequestInputAudioTranscription | No | ||
| Modello └* | Stringa | No | ||
| Istruzioni | Stringa | Le istruzioni di sistema predefinite (cioè il messaggio di sistema) precedevano le chiamate del modello. Questo campo permette al cliente di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta( ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono garantite dal modello, ma forniscono indicazioni sul comportamento desiderato. Si noti che il server imposta le istruzioni predefinite che verranno utilizzate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione. |
No | |
| max_response_output_tokens | integer (vedere modelli validi di seguito) | Numero massimo di token di output per una singola risposta di assistente, inclusivo delle chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 a limitare i token di output o inf per il numero massimo di token disponibili per unmodello specificato. Di default è inf. |
No | |
| Modalità | matrice di stringhe | L'insieme delle modalità a cui il modello può rispondere. Per disabilitare l'audio, impostare su ["text"]. |
No | ['text', 'audio'] |
| output_audio_format | Stringa | Il formato dell'audio in uscita. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw. |
No | |
| prompt | OpenAI.Prompt | Riferimento a un modello di richiesta e alle relative variabili. Altre informazioni. |
No | |
| Velocità | Numero | Velocità della risposta pronunciata del modello. 1.0 è la velocità predefinita. 0.25 è la velocità minima. 1,5 è la velocità massima. Questo valore può essere modificato solo tra i turni del modello, non mentre è in corso una risposta. Vincoli: min: 0,25, max: 1,5 |
No | 1 |
| Temperatura | Numero | La temperatura di campionamento per il modello è limitata a [0,6, 1,2]. Di default è 0.8. | No | |
| tool_choice | Stringa | Come il modello sceglie gli strumenti. Le opzioni sono auto, none, requiredospecificare una funzione. |
No | |
| Strumenti | matrice di OpenAI.RealtimeSessionCreateRequestTools | Strumenti (funzioni) disponibili per il modello. | No | |
| Traccia | stringa o oggetto | Opzioni di configurazione per la traccia. Impostare su Null per disabilitare la traccia. Una volta la traccia è abilitata per una sessione, la configurazione non può essere modificata. auto creerà una traccia per la sessione con i valori predefiniti pernome del flusso di lavoro, ID gruppo e metadati. |
No | |
| Troncamento | OpenAI.RealtimeTruncation | Quando il numero di token in una conversazione supera il limite di token di input del modello, la conversazione viene troncata, ovvero i messaggi (a partire dal meno recente) non verranno inclusi nel contesto del modello. Un modello di contesto di 32k con 4.096 token di output massimo può includere solo 28.224 token nel contesto prima del troncamento. I client possono configurare il comportamento di troncamento con un limite massimo di token inferiore, un modo efficace per controllare l'utilizzo e i costi dei token. Il troncamento ridurrà il numero di token memorizzati nella cache al turno successivo (busting the cache), poiché i messaggi vengono eliminati dall'inizio del contesto. Tuttavia, i client possono anche configurare il troncamento per conservare i messaggi fino a una frazione delle dimensioni massime del contesto, riducendo così la necessità di troncamenti futuri e migliorando così la frequenza della cache. Il troncamento può essere disabilitato completamente, il che significa che il server non verrà mai troncato, ma restituirà invece un errore se la conversazione supera il limite di token di input del modello. |
No | |
| turn_detection | OpenAI.RealtimeSessionCreateRequestTurnDetection | No | ||
| └prefix_padding_ms | Intero | No | ||
| └silence_duration_ms | Intero | No | ||
| └* soglia | Numero | No | ||
| Tipo └* | Stringa | No | ||
| digitare | Enum | Valori possibili: realtime |
Sì | |
| Voce | OpenAI.VoiceIdsShared | No |
OpenAI.RealtimeSessionCreateRequestClientSecret
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| expires_at | Intero | Sì | ||
| Valore | Stringa | Sì |
OpenAI.RealtimeSessionCreateRequestGA
Configurazione in tempo reale degli oggetti di sessione.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Audio | OpenAI.RealtimeSessionCreateRequestGAAudio | No | ||
| Input └* | OpenAI.RealtimeSessionCreateRequestGAAudioInput | No | ||
| └* output | OpenAI.RealtimeSessionCreateRequestGAAudioOutput | No | ||
| Includono | matrice di stringhe | Campi aggiuntivi da includere negli output del server.item.input_audio_transcription.logprobs: includere logprobs per la trascrizione audio di input. |
No | |
| Istruzioni | Stringa | Le istruzioni di sistema predefinite (cioè il messaggio di sistema) precedevano le chiamate del modello. Questo campo permette al cliente di guidare il modello sulle risposte desiderate. Il modello può essere indicato sul contenuto e sul formato della risposta( ad esempio "essere estremamente succinti", "agire amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni nella voce", "ridere frequentemente"). Le istruzioni non sono garantite dal modello, ma forniscono indicazioni sul comportamento desiderato. Si noti che il server imposta le istruzioni predefinite che verranno utilizzate se questo campo non è impostato e sono visibili nell'evento all'inizio session.created della sessione. |
No | |
| max_output_tokens | integer (vedere modelli validi di seguito) | Numero massimo di token di output per una singola risposta di assistente, inclusivo delle chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 a limitare i token di output o inf per il numero massimo di token disponibili per unmodello specificato. Di default è inf. |
No | |
| Modello | Stringa | Modello in tempo reale utilizzato per questa sessione. | No | |
| output_modalities | matrice di stringhe | L'insieme delle modalità a cui il modello può rispondere. L'impostazione ["audio"]predefinita è , che indicache il modello risponderà con audio più una trascrizione. ["text"] può essere usato per fareil modello risponde solo con testo. Non è possibile richiedere e textaudio allo stesso tempo. |
No | ['audio'] |
| prompt | OpenAI.Prompt | Riferimento a un modello di richiesta e alle relative variabili. Altre informazioni. |
No | |
| tool_choice | OpenAI.ToolChoiceOptions o OpenAI.ToolChoiceFunction o OpenAI.ToolChoiceMCP | Come il modello sceglie gli strumenti. Specificare una delle modalità stringa o forzare una specifica strumento function/MCP. |
No | |
| Strumenti | matrice di OpenAI.RealtimeFunctionTool o OpenAI.MCPTool | Strumenti disponibili per il modello. | No | |
| Traccia | string o OpenAI.RealtimeSessionCreateRequestGATracing o null | "" Impostare su null per disabilitare la traccia. Una volta la traccia è abilitata per una sessione, la configurazione non può essere modificata. auto creerà una traccia per la sessione con i valori predefiniti pernome del flusso di lavoro, ID gruppo e metadati. |
No | |
| Troncamento | OpenAI.RealtimeTruncation | Quando il numero di token in una conversazione supera il limite di token di input del modello, la conversazione viene troncata, ovvero i messaggi (a partire dal meno recente) non verranno inclusi nel contesto del modello. Un modello di contesto di 32k con 4.096 token di output massimo può includere solo 28.224 token nel contesto prima del troncamento. I client possono configurare il comportamento di troncamento con un limite massimo di token inferiore, un modo efficace per controllare l'utilizzo e i costi dei token. Il troncamento ridurrà il numero di token memorizzati nella cache al turno successivo (busting the cache), poiché i messaggi vengono eliminati dall'inizio del contesto. Tuttavia, i client possono anche configurare il troncamento per conservare i messaggi fino a una frazione delle dimensioni massime del contesto, riducendo così la necessità di troncamenti futuri e migliorando così la frequenza della cache. Il troncamento può essere disabilitato completamente, il che significa che il server non verrà mai troncato, ma restituirà invece un errore se la conversazione supera il limite di token di input del modello. |
No | |
| digitare | Enum | Tipo di sessione da creare. Sempre realtime per l'API In tempo reale.Valori possibili: realtime |
Sì |
OpenAI.RealtimeSessionCreateRequestGAAudio
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Input | OpenAI.RealtimeSessionCreateRequestGAAudioInput | No | ||
| Output | OpenAI.RealtimeSessionCreateRequestGAAudioOutput | No |
OpenAI.RealtimeSessionCreateRequestGAAudioInput
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Formato | OpenAI.RealtimeAudioFormats | No | ||
| noise_reduction | OpenAI.RealtimeSessionCreateRequestGAAudioInputNoiseReduction | No | ||
| Trascrizione | OpenAI.AudioTranscription | No | ||
| turn_detection | OpenAI.RealtimeTurnDetection | No |
OpenAI.RealtimeSessionCreateRequestGAAudioInputNoiseReduction
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.NoiseReductionType | Tipo di riduzione del rumore.
near_field è per microfoni ravvicinati come le cuffie, è far_field per microfoni a campo lontano come laptop o microfoni di sala conferenze. |
No |
OpenAI.RealtimeSessionCreateRequestGAAudioOutput
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Formato | OpenAI.RealtimeAudioFormats | No | ||
| Velocità | Numero | Vincoli: min: 0,25, max: 1,5 | No | 1 |
| Voce | OpenAI.VoiceIdsShared | No |
OpenAI.RealtimeSessionCreateRequestGATracing
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| group_id | Stringa | No | ||
| Metadati | Oggetto | No | ||
| workflow_name | Stringa | No |
OpenAI.RealtimeSessionCreateRequestInputAudioTranscription
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Modello | Stringa | No |
OpenAI.RealtimeSessionCreateRequestTools
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Descrizione | Stringa | No | ||
| Nome | Stringa | No | ||
| Parametri | OpenAI.RealtimeSessionCreateRequestToolsParameters | No | ||
| digitare | Enum | Valori possibili: function |
No |
OpenAI.RealtimeSessionCreateRequestToolsParameters
Tipo: oggetto
OpenAI.RealtimeSessionCreateRequestTurnDetection
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| prefix_padding_ms | Intero | No | ||
| silence_duration_ms | Intero | No | ||
| Soglia | Numero | No | ||
| digitare | Stringa | No |
OpenAI.RealtimeSessionCreateRequestUnion
Discriminante per OpenAI.RealtimeSessionCreateRequestUnion
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
realtime |
OpenAI.RealtimeSessionCreateRequest |
transcription |
OpenAI.RealtimeTranscriptionSessionCreateRequest |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.RealtimeSessionCreateRequestUnionType | Sì |
OpenAI.RealtimeSessionCreateRequestUnionType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | realtimetranscription |
OpenAI.RealtimeSessionCreateResponse
Oggetto di configurazione sessione in tempo reale.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Audio | OpenAI.RealtimeSessionCreateResponseAudio | No | ||
| Input └* | OpenAI.RealtimeSessionCreateResponseAudioInput | No | ||
| └* output | OpenAI.RealtimeSessionCreateResponseAudioOutput | No | ||
| expires_at | Intero | Timestamp di scadenza per la sessione, in secondi dall'epoca. | No | |
| Id | Stringa | Identificatore univoco per la sessione simile a sess_1234567890abcdef. |
No | |
| Includono | matrice di stringhe | Campi aggiuntivi da includere negli output del server. - item.input_audio_transcription.logprobs: includere logprobs per la trascrizione audio di input. |
No | |
| Istruzioni | Stringa | Le istruzioni di sistema predefinite (ad esempio il messaggio di sistema) anteporte al modello Chiamate. Questo campo consente al client di guidare il modello in base alle esigenze Risposte. Il modello può essere indicato sul contenuto e sul formato della risposta, (ad esempio "essere estremamente succinti", "act friendly", "here are examples of good risposte") e sul comportamento audio (ad esempio "parlare rapidamente", "inserire emozioni" nella tua voce", "ridere frequentemente"). Le istruzioni non sono garantite per essere seguito dal modello, ma forniscono indicazioni al modello sul comportamento desiderato. Si noti che il server imposta le istruzioni predefinite che verranno usate se si tratta di il campo non è impostato e è visibile nell'evento in corrispondenza di session.createdinizio della sessione. |
No | |
| max_output_tokens | integer (vedere modelli validi di seguito) | Numero massimo di token di output per una singola risposta di assistente, inclusivo delle chiamate agli strumenti. Specificare un numero intero compreso tra 1 e 4096 a limitare i token di output o inf per il numero massimo di token disponibili per unmodello specificato. Di default è inf. |
No | |
| Modello | Stringa | Modello in tempo reale utilizzato per questa sessione. | No | |
| Oggetto | Stringa | Il tipo di oggetto. Sempre realtime.session. |
No | |
| output_modalities | matrice di stringhe | L'insieme delle modalità a cui il modello può rispondere. Per disabilitare l'audio, impostare su ["text"]. |
No | |
| tool_choice | Stringa | Come il modello sceglie gli strumenti. Le opzioni sono auto, none, requiredospecificare una funzione. |
No | |
| Strumenti | matrice di OpenAI.RealtimeFunctionTool | Strumenti (funzioni) disponibili per il modello. | No | |
| Traccia | stringa o oggetto | Opzioni di configurazione per la traccia. Impostare su Null per disabilitare la traccia. Una volta la traccia è abilitata per una sessione, la configurazione non può essere modificata. auto creerà una traccia per la sessione con i valori predefiniti pernome del flusso di lavoro, ID gruppo e metadati. |
No | |
| turn_detection | OpenAI.RealtimeSessionCreateResponseTurnDetection | No | ||
| └prefix_padding_ms | Intero | No | ||
| └silence_duration_ms | Intero | No | ||
| └* soglia | Numero | No | ||
| Tipo └* | Stringa | No | ||
| digitare | Enum | Valori possibili: realtime |
Sì |
OpenAI.RealtimeSessionCreateResponseAudio
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Input | OpenAI.RealtimeSessionCreateResponseAudioInput | No | ||
| Output | OpenAI.RealtimeSessionCreateResponseAudioOutput | No |
OpenAI.RealtimeSessionCreateResponseAudioInput
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Formato | OpenAI.RealtimeAudioFormats | No | ||
| noise_reduction | OpenAI.RealtimeSessionCreateResponseAudioInputNoiseReduction | No | ||
| Trascrizione | OpenAI.AudioTranscription | No | ||
| turn_detection | OpenAI.RealtimeSessionCreateResponseAudioInputTurnDetection | No |
OpenAI.RealtimeSessionCreateResponseAudioInputNoiseReduction
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.NoiseReductionType | Tipo di riduzione del rumore.
near_field è per microfoni ravvicinati come le cuffie, è far_field per microfoni a campo lontano come laptop o microfoni di sala conferenze. |
No |
OpenAI.RealtimeSessionCreateResponseAudioInputTurnDetection
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| prefix_padding_ms | Intero | No | ||
| silence_duration_ms | Intero | No | ||
| Soglia | Numero | No | ||
| digitare | Stringa | No |
OpenAI.RealtimeSessionCreateResponseAudioOutput
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Formato | OpenAI.RealtimeAudioFormats | No | ||
| Velocità | Numero | No | ||
| Voce | OpenAI.VoiceIdsShared | No |
OpenAI.RealtimeSessionCreateResponseTurnDetection
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| prefix_padding_ms | Intero | No | ||
| silence_duration_ms | Intero | No | ||
| Soglia | Numero | No | ||
| digitare | Stringa | No |
OpenAI.RealtimeSessionCreateResponseUnion
Discriminante per OpenAI.RealtimeSessionCreateResponseUnion
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
realtime |
OpenAI.RealtimeSessionCreateResponse |
transcription |
OpenAI.RealtimeTranscriptionSessionCreateResponse |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.RealtimeSessionCreateResponseUnionType | Sì |
OpenAI.RealtimeSessionCreateResponseUnionType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | realtimetranscription |
OpenAI.RealtimeTranscriptionSessionCreateRequest
Configurazione degli oggetti in tempo reale per sessioni di trascrizione.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Includono | matrice di stringhe | Il set di elementi da includere nella trascrizione. Gli articoli attualmente disponibili sono:item.input_audio_transcription.logprobs |
No | |
| input_audio_format | Enum | Il formato dell'audio in ingresso. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw.Per pcm16, l'audio di input deve essere PCM a 16 bit a una frequenza di campionamento di 24 kHz,singolo canale (mono) e ordine dei byte little-endian. Valori possibili: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | OpenAI.RealtimeTranscriptionSessionCreateRequestInputAudioNoiseReduction | No | ||
| Tipo └* | OpenAI.NoiseReductionType | Tipo di riduzione del rumore.
near_field è per microfoni ravvicinati come le cuffie, è far_field per microfoni a campo lontano come laptop o microfoni di sala conferenze. |
No | |
| input_audio_transcription | OpenAI.AudioTranscription | No | ||
| └* lingua | Stringa | Il linguaggio dell'audio in ingresso. Specifica della lingua di input in Formato ISO-639-1 (ad esempio en)migliorerà l'accuratezza e la latenza. |
No | |
| Modello └* | Stringa | Il modello da usare per la trascrizione. Le opzioni correnti sono whisper-1, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15gpt-4o-transcribe, e gpt-4o-transcribe-diarize. Usare gpt-4o-transcribe-diarize quando è necessaria la diarizzazione con le etichette dell'altoparlante. |
No | |
| └* prompt | Stringa | Testo facoltativo per guidare lo stile del modello o continuare un audio precedente Segmento. Per whisper-1, il prompt è un elenco di parole chiave.Per gpt-4o-transcribe i modelli (escluso gpt-4o-transcribe-diarize), il prompt è una stringa di testo libero, ad esempio "aspetta parole correlate alla tecnologia". |
No | |
| turn_detection | OpenAI.RealtimeTranscriptionSessionCreateRequestTurnDetection | No | ||
| └prefix_padding_ms | Intero | No | ||
| └silence_duration_ms | Intero | No | ||
| └* soglia | Numero | No | ||
| Tipo └* | Enum | Valori possibili: server_vad |
No | |
| digitare | Enum | Valori possibili: transcription |
Sì |
OpenAI.RealtimeTranscriptionSessionCreateRequestInputAudioNoiseReduction
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.NoiseReductionType | Tipo di riduzione del rumore.
near_field è per microfoni ravvicinati come le cuffie, è far_field per microfoni a campo lontano come laptop o microfoni di sala conferenze. |
No |
OpenAI.RealtimeTranscriptionSessionCreateRequestTurnDetection
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| prefix_padding_ms | Intero | No | ||
| silence_duration_ms | Intero | No | ||
| Soglia | Numero | No | ||
| digitare | Enum | Valori possibili: server_vad |
No |
OpenAI.RealtimeTranscriptionSessionCreateResponse
Una nuova configurazione di sessione di trascrizione in tempo reale. Quando una sessione viene creata sul server tramite l'API REST, l'oggetto sessione contiene anche una chiave effimera. Il valore TTL predefinito per le chiavi è 10 minuti. Questa proprietà non è presente quando una sessione viene aggiornata tramite l'API WebSocket.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| client_secret | OpenAI.RealtimeTranscriptionSessionCreateResponseClientSecret | Sì | ||
| └expires_at | Intero | Sì | ||
| └* valore | Stringa | Sì | ||
| input_audio_format | Stringa | Il formato dell'audio in ingresso. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw. |
No | |
| input_audio_transcription | OpenAI.AudioTranscription | No | ||
| └* lingua | Stringa | Il linguaggio dell'audio in ingresso. Specifica della lingua di input in Formato ISO-639-1 (ad esempio en)migliorerà l'accuratezza e la latenza. |
No | |
| Modello └* | Stringa | Il modello da usare per la trascrizione. Le opzioni correnti sono whisper-1, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15gpt-4o-transcribe, e gpt-4o-transcribe-diarize. Usare gpt-4o-transcribe-diarize quando è necessaria la diarizzazione con le etichette dell'altoparlante. |
No | |
| └* prompt | Stringa | Testo facoltativo per guidare lo stile del modello o continuare un audio precedente Segmento. Per whisper-1, il prompt è un elenco di parole chiave.Per gpt-4o-transcribe i modelli (escluso gpt-4o-transcribe-diarize), il prompt è una stringa di testo libero, ad esempio "aspetta parole correlate alla tecnologia". |
No | |
| Modalità | matrice di stringhe | L'insieme delle modalità a cui il modello può rispondere. Per disabilitare l'audio, impostare su ["text"]. |
No | |
| turn_detection | OpenAI.RealtimeTranscriptionSessionCreateResponseTurnDetection | No | ||
| └prefix_padding_ms | Intero | No | ||
| └silence_duration_ms | Intero | No | ||
| └* soglia | Numero | No | ||
| Tipo └* | Stringa | No | ||
| digitare | Enum | Valori possibili: transcription |
Sì |
OpenAI.RealtimeTranscriptionSessionCreateResponseClientSecret
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| expires_at | Intero | Sì | ||
| Valore | Stringa | Sì |
OpenAI.RealtimeTranscriptionSessionCreateResponseTurnDetection
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| prefix_padding_ms | Intero | No | ||
| silence_duration_ms | Intero | No | ||
| Soglia | Numero | No | ||
| digitare | Stringa | No |
OpenAI.RealtimeTruncation
Quando il numero di token in una conversazione supera il limite di token di input del modello, la conversazione viene troncata, ovvero i messaggi (a partire dal meno recente) non verranno inclusi nel contesto del modello. Un modello di contesto di 32k con 4.096 token di output massimo può includere solo 28.224 token nel contesto prima del troncamento. I client possono configurare il comportamento di troncamento con un limite massimo di token inferiore, un modo efficace per controllare l'utilizzo e i costi dei token. Il troncamento ridurrà il numero di token memorizzati nella cache al turno successivo (busting the cache), poiché i messaggi vengono eliminati dall'inizio del contesto. Tuttavia, i client possono anche configurare il troncamento per conservare i messaggi fino a una frazione delle dimensioni massime del contesto, riducendo così la necessità di troncamenti futuri e migliorando così la frequenza della cache. Il troncamento può essere disabilitato completamente, il che significa che il server non verrà mai troncato, ma restituirà invece un errore se la conversazione supera il limite di token di input del modello.
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | autodisabled |
OpenAI.RealtimeTurnDetection
Discriminare per OpenAI.RealtimeTurnDetection
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.RealtimeTurnDetectionType | Sì |
OpenAI.RealtimeTurnDetectionType
Tipo: string
OpenAI.Reasoning
Solo modelli gpt-5 e serie O Opzioni di configurazione per i modelli di ragionamento.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Sforzo | OpenAI.ReasoningEffort | Vincola lo sforzo sul ragionamento per ragionamento dei modelli. I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurrel'impegno di ragionamento può comportare risposte più veloci e meno token usati sul ragionamento in una risposta. - gpt-5.1 il valore predefinito è none, che non esegue il ragionamento. I valori di ragionamento supportati per gpt-5.1 sono none, low, mediume high. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1.- Tutti i modelli prima gpt-5.1 di eseguire il ragionamento per impostazione predefinita medium e non supportano none.- Il gpt-5-pro modello usa per impostazione predefinita (e supporta solo) high il ragionamento.- xhigh è supportato per tutti i modelli dopo gpt-5.1-codex-max. |
No | |
| generate_summary | stringa o null | No | ||
| Riepilogo | stringa o null | No |
OpenAI.ReasoningEffort
Limita lo sforzo sul ragionamento per i modelli di ragionamento.
I valori attualmente supportati sono none, minimal, lowmedium, , highe xhigh. Ridurre lo sforzo di ragionamento può portare a risposte più rapide e a meno token utilizzati per ragionare in una risposta.
-
gpt-5.1il valore predefinito ènone, che non esegue il ragionamento. I valori di ragionamento supportati pergpt-5.1sononone,low,mediumehigh. Le chiamate agli strumenti sono supportate per tutti i valori di ragionamento in gpt-5.1. - Tutti i modelli prima
gpt-5.1delmediumragionamento predefinito e non supportanonone. - Il
gpt-5-promodello usa per impostazione predefinita (e supporta solo)highil ragionamento. -
xhighè supportato per tutti i modelli dopogpt-5.1-codex-max.
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | noneminimallowmediumhighxhigh |
OpenAI.ReasoningTextContent
Ragionamento del testo dal modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Testo | Stringa | Testo di ragionamento del modello. | Sì | |
| digitare | Enum | Tipo del testo di ragionamento. Sempre reasoning_text.Valori possibili: reasoning_text |
Sì |
OpenAI.RefusalContent
Un rifiuto da parte del modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Rifiuto | Stringa | La spiegazione del rifiuto dal modello. | Sì | |
| digitare | Enum | Il tipo di rifiuto. Sempre refusal.Valori possibili: refusal |
Sì |
OpenAI.Response
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Priorità bassa | booleano o null | No | ||
| completed_at | stringa o null | No | ||
| content_filters | matrice di AzureContentFilterForResponsesAPI | Il filtro contenuto restituisce i risultati di RAI. | Sì | |
| Conversazione | OpenAI.ConversationReference o Null | No | ||
| created_at | Intero | Timestamp Unix (in pochi secondi) di quando questa Risposta è stata creata. | Sì | |
| Errore | OpenAI.ResponseError o null | Sì | ||
| Id | Stringa | Identificatore unico per questa Risposta. | Sì | |
| incomplete_details | OpenAI.ResponseIncompleteDetails o null | Sì | ||
| Istruzioni | stringa o matrice di OpenAI.InputItem o null | Sì | ||
| max_output_tokens | integer o null | No | ||
| max_tool_calls | integer o null | No | ||
| Metadati | OpenAI.Metadata o Null | No | ||
| Modello | Stringa | ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAIoffre un'ampia gamma di modelli con diverse funzionalità, prestazioni caratteristiche e punti di prezzo. Fare riferimento alla guida al modello per esplorare e confrontare i modelli disponibili. |
No | |
| Oggetto | Enum | Il tipo di oggetto di questa risorsa - sempre impostato a response.Valori possibili: response |
Sì | |
| Output | matrice di OpenAI.OutputItem | Una serie di elementi di contenuto generati dal modello. - La lunghezza e l'ordine degli elementi nella output matrice dipendonosulla risposta del modello. - Anziché accedere al primo elemento nella output matrice epresupponendo che si tratti di un assistant messaggio con il contenuto generato dail modello, è consigliabile usare la proprietà in output_text cuisupportato negli SDK. |
Sì | |
| output_text | stringa o null | No | ||
| parallel_tool_calls | Boolean | Se permettere al modello di eseguire chiamate di strumenti in parallelo. | Sì | Vero |
| previous_response_id | stringa o null | No | ||
| prompt | OpenAI.Prompt | Riferimento a un modello di richiesta e alle relative variabili. Altre informazioni. |
No | |
| prompt_cache_key | Stringa | Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo.
Altre informazioni. |
No | |
| prompt_cache_retention | stringa o null | No | ||
| Ragionamento | OpenAI.Reasoning o null | No | ||
| safety_identifier | Stringa | Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI. Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni. |
No | |
| Stato | Enum | Lo stato della generazione della risposta. Uno di completed, failed,in_progress
cancelled, queued, o incomplete.Valori possibili: completed, failed, in_progress, cancelled, queued, incomplete |
No | |
| Temperatura | number o null | No | ||
| Testo | OpenAI.ResponseTextParam | Opzioni di configurazione per una risposta testuale dal modello. Può essere semplice dati JSON strutturati o di testo. Ulteriori informazioni: - Input di testo e output - Output strutturati |
No | |
| tool_choice | OpenAI.ToolChoiceParam | Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione una risposta. Vedere il tools parametro per vedere come specificare gli strumentiil modello può chiamare. |
No | |
| Strumenti | OpenAI.ToolsArray | Una serie di strumenti che il modello può chiamare mentre genera una risposta. Tu può specificare quale strumento usare impostando il tool_choice parametro .Sono supportate le categorie di strumenti seguenti: - Strumenti integrati: Strumenti forniti da OpenAI che estendono la funzionalità del modello, ad esempio la ricerca Web o ricerca di file. Altre informazioni strumenti predefiniti. - Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni Strumenti MCP. - Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente, abilitazione del modello per chiamare il proprio codice con argomenti fortemente tipizzato e output. Altre informazioni chiamata di funzione. È anche possibile usare strumenti personalizzati per chiamare il proprio codice. |
No | |
| top_logprobs | integer o null | No | ||
| top_p | number o null | No | ||
| Troncamento | stringa o null | No | ||
| Utilizzo | OpenAI.ResponseUsage | Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output, suddivisione dei token di output e dei token totali usati. |
No | |
| Utente | stringa (deprecata) | Questo campo viene sostituito da safety_identifier e prompt_cache_key. Usare prompt_cache_key invece per mantenere le ottimizzazioni della memorizzazione nella cache.Identificatore stabile per gli utenti finali. Usato per aumentare la frequenza di riscontri nella cache migliorando il bucket di richieste simili e per consentire a OpenAI di rilevare e prevenire abusi. Altre informazioni. |
No |
OpenAI.ResponseAudioDeltaEvent
Emessa quando c'è una risposta audio parziale.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Delta | Stringa | Un blocco di byte audio codificati in risposta Base64. | Sì | |
| sequence_number | Intero | Numero di sequenza per questo blocco della risposta del flusso. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre response.audio.delta.Valori possibili: response.audio.delta |
Sì |
OpenAI.ResponseAudioTranscriptDeltaEvent
Emessa quando c'è una trascrizione parziale dell'audio.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Delta | Stringa | La trascrizione parziale della risposta audio. | Sì | |
| sequence_number | Intero | Numero di sequenza di questo evento. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre response.audio.transcript.delta.Valori possibili: response.audio.transcript.delta |
Sì |
OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent
Generato quando un frammento di codice parziale viene trasmesso dall'interprete di codice.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Delta | Stringa | Frammento di codice parziale trasmesso dall'interprete di codice. | Sì | |
| item_id | Stringa | Identificatore univoco dell'elemento di chiamata dello strumento dell'interprete del codice. | Sì | |
| output_index | Intero | Indice dell'elemento di output nella risposta per cui viene trasmesso il codice. | Sì | |
| sequence_number | Intero | Numero di sequenza di questo evento, utilizzato per ordinare gli eventi di streaming. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre response.code_interpreter_call_code.delta.Valori possibili: response.code_interpreter_call_code.delta |
Sì |
OpenAI.ResponseCodeInterpreterCallInProgressEvent
Emessa quando è in corso una chiamata da un interprete di codice.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| item_id | Stringa | Identificatore univoco dell'elemento di chiamata dello strumento dell'interprete del codice. | Sì | |
| output_index | Intero | Indice dell'elemento di output nella risposta per cui è in corso la chiamata dell'interprete del codice. | Sì | |
| sequence_number | Intero | Numero di sequenza di questo evento, utilizzato per ordinare gli eventi di streaming. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre response.code_interpreter_call.in_progress.Valori possibili: response.code_interpreter_call.in_progress |
Sì |
OpenAI.ResponseCodeInterpreterCallInterpretingEvent
Emessa quando l'interprete di codice sta interpretando attivamente lo snippet di codice.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| item_id | Stringa | Identificatore univoco dell'elemento di chiamata dello strumento dell'interprete del codice. | Sì | |
| output_index | Intero | Indice dell'elemento di output nella risposta per cui l'interprete del codice interpreta il codice. | Sì | |
| sequence_number | Intero | Numero di sequenza di questo evento, utilizzato per ordinare gli eventi di streaming. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre response.code_interpreter_call.interpreting.Valori possibili: response.code_interpreter_call.interpreting |
Sì |
OpenAI.ResponseContentPartAddedEvent
Emessa quando viene aggiunta una nuova componente di contenuto.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| content_index | Intero | L'indice della parte di contenuto aggiunta. | Sì | |
| item_id | Stringa | L'ID dell'elemento di output a cui è stata aggiunta la parte di contenuto. | Sì | |
| output_index | Intero | L'indice dell'elemento di output a cui è stata aggiunta la parte di contenuto. | Sì | |
| Parte | OpenAI.OutputContent | Sì | ||
| Tipo └* | OpenAI.OutputContentType | Sì | ||
| sequence_number | Intero | Numero di sequenza di questo evento. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre response.content_part.added.Valori possibili: response.content_part.added |
Sì |
OpenAI.ResponseCreatedEvent
Un evento che viene emesso quando viene creata una risposta.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Risposta | OpenAI.Response | Sì | ||
| └* sfondo | booleano o null | No | ||
| └completed_at | stringa o null | No | ||
| └content_filters | matrice di AzureContentFilterForResponsesAPI | Il filtro contenuto restituisce i risultati di RAI. | Sì | |
| └* conversazione | OpenAI.ConversationReference o Null | No | ||
| └created_at | Intero | Timestamp Unix (in pochi secondi) di quando questa Risposta è stata creata. | Sì | |
| Errore └* | OpenAI.ResponseError o null | Sì | ||
| └* id | Stringa | Identificatore unico per questa Risposta. | Sì | |
| └incomplete_details | OpenAI.ResponseIncompleteDetails o null | Sì | ||
| └* istruzioni | stringa o matrice di OpenAI.InputItem o null | Sì | ||
| └max_output_tokens | integer o null | No | ||
| └max_tool_calls | integer o null | No | ||
| Metadati └* | OpenAI.Metadata o Null | No | ||
| Modello └* | Stringa | ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAIoffre un'ampia gamma di modelli con diverse funzionalità, prestazioni caratteristiche e punti di prezzo. Fare riferimento alla guida al modello per esplorare e confrontare i modelli disponibili. |
No | |
| Oggetto └* | Enum | Il tipo di oggetto di questa risorsa - sempre impostato a response.Valori possibili: response |
Sì | |
| └* output | matrice di OpenAI.OutputItem | Una serie di elementi di contenuto generati dal modello. - La lunghezza e l'ordine degli elementi nella output matrice dipendonosulla risposta del modello. - Anziché accedere al primo elemento nella output matrice epresupponendo che si tratti di un assistant messaggio con il contenuto generato dail modello, è consigliabile usare la proprietà in output_text cuisupportato negli SDK. |
Sì | |
| └output_text | stringa o null | No | ||
| └parallel_tool_calls | Boolean | Se permettere al modello di eseguire chiamate di strumenti in parallelo. | Sì | Vero |
| └previous_response_id | stringa o null | No | ||
| └* prompt | OpenAI.Prompt | Riferimento a un modello di richiesta e alle relative variabili. Altre informazioni. |
No | |
| └prompt_cache_key | Stringa | Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo.
Altre informazioni. |
No | |
| └prompt_cache_retention | stringa o null | No | ||
| └* ragionamento | OpenAI.Reasoning o null | No | ||
| └safety_identifier | Stringa | Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI. Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni. |
No | |
| └* stato | Enum | Lo stato della generazione della risposta. Uno di completed, failed,in_progress
cancelled, queued, o incomplete.Valori possibili: completed, failed, in_progress, cancelled, queued, incomplete |
No | |
| └* temperatura | number o null | No | 1 | |
| └* testo | OpenAI.ResponseTextParam | Opzioni di configurazione per una risposta testuale dal modello. Può essere semplice dati JSON strutturati o di testo. Ulteriori informazioni: - Input di testo e output - Output strutturati |
No | |
| └tool_choice | OpenAI.ToolChoiceParam | Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione una risposta. Vedere il tools parametro per vedere come specificare gli strumentiil modello può chiamare. |
No | |
| Strumenti └* | OpenAI.ToolsArray | Una serie di strumenti che il modello può chiamare mentre genera una risposta. Tu può specificare quale strumento usare impostando il tool_choice parametro .Sono supportate le categorie di strumenti seguenti: - Strumenti integrati: Strumenti forniti da OpenAI che estendono la funzionalità del modello, ad esempio la ricerca Web o ricerca di file. Altre informazioni strumenti predefiniti. - Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni Strumenti MCP. - Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente, abilitazione del modello per chiamare il proprio codice con argomenti fortemente tipizzato e output. Altre informazioni chiamata di funzione. È anche possibile usare strumenti personalizzati per chiamare il proprio codice. |
No | |
| └top_logprobs | integer o null | No | ||
| └top_p | number o null | No | 1 | |
| └\ troncamento | stringa o null | No | Disabili | |
| └* utilizzo | OpenAI.ResponseUsage | Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output, suddivisione dei token di output e dei token totali usati. |
No | |
| └* utente | stringa (deprecata) | Questo campo viene sostituito da safety_identifier e prompt_cache_key. Usare prompt_cache_key invece per mantenere le ottimizzazioni della memorizzazione nella cache.Identificatore stabile per gli utenti finali. Usato per aumentare la frequenza di riscontri nella cache migliorando il bucket di richieste simili e per consentire a OpenAI di rilevare e prevenire abusi. Altre informazioni. |
No | |
| sequence_number | Intero | Numero di sequenza per questo evento. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre response.created.Valori possibili: response.created |
Sì |
OpenAI.ResponseCustomToolCallInputDeltaEvent
Evento che rappresenta un delta (aggiornamento parziale) per l'input di una chiamata personalizzata allo strumento.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Delta | Stringa | Dati di input incrementali (delta) per la chiamata allo strumento personalizzato. | Sì | |
| item_id | Stringa | Identificatore univoco per l'elemento API associato a questo evento. | Sì | |
| output_index | Intero | L'indice dell'output a cui si applica questo delta. | Sì | |
| sequence_number | Intero | Numero di sequenza di questo evento. | Sì | |
| digitare | Enum | Identificatore del tipo di evento. Valori possibili: response.custom_tool_call_input.delta |
Sì |
OpenAI.ResponseError
Un oggetto di errore viene restituito quando il modello non riesce a generare una Risposta.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Codice | OpenAI.ResponseErrorCode | Il codice di errore della risposta. | Sì | |
| Messaggio | Stringa | Una descrizione leggibile dall'uomo dell'errore. | Sì |
OpenAI.ResponseErrorCode
Il codice di errore della risposta.
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | server_errorrate_limit_exceededinvalid_promptvector_store_timeoutinvalid_imageinvalid_image_formatinvalid_base64_imageinvalid_image_urlimage_too_largeimage_too_smallimage_parse_errorimage_content_policy_violationinvalid_image_modeimage_file_too_largeunsupported_image_media_typeempty_image_filefailed_to_download_imageimage_file_not_found |
OpenAI.ResponseErrorEvent
Emessa quando si verifica un errore.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Codice | stringa o null | Sì | ||
| Messaggio | Stringa | Il messaggio di errore. | Sì | |
| Param | stringa o null | Sì | ||
| sequence_number | Intero | Numero di sequenza di questo evento. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre error.Valori possibili: error |
Sì |
OpenAI.ResponseFailedEvent
Un evento che viene emesso quando una risposta fallisce.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Risposta | OpenAI.Response | Sì | ||
| └* sfondo | booleano o null | No | ||
| └completed_at | stringa o null | No | ||
| └content_filters | matrice di AzureContentFilterForResponsesAPI | Il filtro contenuto restituisce i risultati di RAI. | Sì | |
| └* conversazione | OpenAI.ConversationReference o Null | No | ||
| └created_at | Intero | Timestamp Unix (in pochi secondi) di quando questa Risposta è stata creata. | Sì | |
| Errore └* | OpenAI.ResponseError o null | Sì | ||
| └* id | Stringa | Identificatore unico per questa Risposta. | Sì | |
| └incomplete_details | OpenAI.ResponseIncompleteDetails o null | Sì | ||
| └* istruzioni | stringa o matrice di OpenAI.InputItem o null | Sì | ||
| └max_output_tokens | integer o null | No | ||
| └max_tool_calls | integer o null | No | ||
| Metadati └* | OpenAI.Metadata o Null | No | ||
| Modello └* | Stringa | ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAIoffre un'ampia gamma di modelli con diverse funzionalità, prestazioni caratteristiche e punti di prezzo. Fare riferimento alla guida al modello per esplorare e confrontare i modelli disponibili. |
No | |
| Oggetto └* | Enum | Il tipo di oggetto di questa risorsa - sempre impostato a response.Valori possibili: response |
Sì | |
| └* output | matrice di OpenAI.OutputItem | Una serie di elementi di contenuto generati dal modello. - La lunghezza e l'ordine degli elementi nella output matrice dipendonosulla risposta del modello. - Anziché accedere al primo elemento nella output matrice epresupponendo che si tratti di un assistant messaggio con il contenuto generato dail modello, è consigliabile usare la proprietà in output_text cuisupportato negli SDK. |
Sì | |
| └output_text | stringa o null | No | ||
| └parallel_tool_calls | Boolean | Se permettere al modello di eseguire chiamate di strumenti in parallelo. | Sì | Vero |
| └previous_response_id | stringa o null | No | ||
| └* prompt | OpenAI.Prompt | Riferimento a un modello di richiesta e alle relative variabili. Altre informazioni. |
No | |
| └prompt_cache_key | Stringa | Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo.
Altre informazioni. |
No | |
| └prompt_cache_retention | stringa o null | No | ||
| └* ragionamento | OpenAI.Reasoning o null | No | ||
| └safety_identifier | Stringa | Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI. Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni. |
No | |
| └* stato | Enum | Lo stato della generazione della risposta. Uno di completed, failed,in_progress
cancelled, queued, o incomplete.Valori possibili: completed, failed, in_progress, cancelled, queued, incomplete |
No | |
| └* temperatura | number o null | No | 1 | |
| └* testo | OpenAI.ResponseTextParam | Opzioni di configurazione per una risposta testuale dal modello. Può essere semplice dati JSON strutturati o di testo. Ulteriori informazioni: - Input di testo e output - Output strutturati |
No | |
| └tool_choice | OpenAI.ToolChoiceParam | Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione una risposta. Vedere il tools parametro per vedere come specificare gli strumentiil modello può chiamare. |
No | |
| Strumenti └* | OpenAI.ToolsArray | Una serie di strumenti che il modello può chiamare mentre genera una risposta. Tu può specificare quale strumento usare impostando il tool_choice parametro .Sono supportate le categorie di strumenti seguenti: - Strumenti integrati: Strumenti forniti da OpenAI che estendono la funzionalità del modello, ad esempio la ricerca Web o ricerca di file. Altre informazioni strumenti predefiniti. - Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni Strumenti MCP. - Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente, abilitazione del modello per chiamare il proprio codice con argomenti fortemente tipizzato e output. Altre informazioni chiamata di funzione. È anche possibile usare strumenti personalizzati per chiamare il proprio codice. |
No | |
| └top_logprobs | integer o null | No | ||
| └top_p | number o null | No | 1 | |
| └\ troncamento | stringa o null | No | Disabili | |
| └* utilizzo | OpenAI.ResponseUsage | Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output, suddivisione dei token di output e dei token totali usati. |
No | |
| └* utente | stringa (deprecata) | Questo campo viene sostituito da safety_identifier e prompt_cache_key. Usare prompt_cache_key invece per mantenere le ottimizzazioni della memorizzazione nella cache.Identificatore stabile per gli utenti finali. Usato per aumentare la frequenza di riscontri nella cache migliorando il bucket di richieste simili e per consentire a OpenAI di rilevare e prevenire abusi. Altre informazioni. |
No | |
| sequence_number | Intero | Numero di sequenza di questo evento. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre response.failed.Valori possibili: response.failed |
Sì |
OpenAI.ResponseFileSearchCallInProgressEvent
Emessa quando viene avviata una chiamata di ricerca file.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| item_id | Stringa | L'ID dell'elemento di output che viene avviato dalla ricerca del file. | Sì | |
| output_index | Intero | L'indice dell'elemento di output che viene avviato dalla ricerca del file. | Sì | |
| sequence_number | Intero | Numero di sequenza di questo evento. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre response.file_search_call.in_progress.Valori possibili: response.file_search_call.in_progress |
Sì |
OpenAI.ResponseFileSearchCallSearchingEvent
Viene emesso quando una ricerca file è attualmente in corso.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| item_id | Stringa | L'ID dell'elemento di output che viene avviato dalla ricerca del file. | Sì | |
| output_index | Intero | L'indice dell'elemento di output che la ricerca chiamata dal file sta cercando. | Sì | |
| sequence_number | Intero | Numero di sequenza di questo evento. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre response.file_search_call.searching.Valori possibili: response.file_search_call.searching |
Sì |
OpenAI.ResponseFormatJsonObject
Formato della risposta dell'oggetto JSON. Metodo precedente di generazione di risposte JSON.
L'uso json_schema di è consigliato per i modelli che lo supportano. Si noti che il modello non genererà JSON senza un messaggio di sistema o utente che indica a tale scopo.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Il tipo di formato di risposta da definire. Sempre json_object.Valori possibili: json_object |
Sì |
OpenAI.ResponseFormatJsonSchema
Formato di risposta schema JSON. Utilizzato per generare risposte JSON strutturate. Altre informazioni sugli output strutturati.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| json_schema | OpenAI.ResponseFormatJsonSchemaJsonSchema | Sì | ||
| └* descrizione | Stringa | No | ||
| └> nome | Stringa | Sì | ||
| Schema └* | OpenAI.ResponseFormatJsonSchemaSchema | Lo schema per il formato di risposta, descritto come un oggetto JSON Schema. Impara qui come costruire schemi JSON. |
No | |
| └* strict | booleano o null | No | ||
| digitare | Enum | Il tipo di formato di risposta da definire. Sempre json_schema.Valori possibili: json_schema |
Sì |
OpenAI.ResponseFormatJsonSchemaJsonSchema
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Descrizione | Stringa | No | ||
| Nome | Stringa | Sì | ||
| Schema | OpenAI.ResponseFormatJsonSchemaSchema | Lo schema per il formato di risposta, descritto come un oggetto JSON Schema. Impara qui come costruire schemi JSON. |
No | |
| Rigorosa | booleano o null | No |
OpenAI.ResponseFormatJsonSchemaSchema
Lo schema per il formato di risposta, descritto come un oggetto JSON Schema. Impara qui come costruire schemi JSON.
Tipo: oggetto
OpenAI.ResponseFormatText
Formato di risposta predefinito. Usato per generare risposte di testo.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Il tipo di formato di risposta da definire. Sempre text.Valori possibili: text |
Sì |
OpenAI.ResponseFunctionCallArgumentsDeltaEvent
Emessa quando esiste un delta parziale degli argomenti di chiamata di funzione.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Delta | Stringa | Gli argomenti della chiamata di funzione sono delta che vengono aggiunti. | Sì | |
| item_id | Stringa | L'ID dell'elemento di output a cui viene aggiunto il delta degli argomenti delle chiamate funzioni. | Sì | |
| output_index | Intero | L'indice dell'elemento di output a cui si aggiungono i delta degli argomenti delle chiamate funzioni. | Sì | |
| sequence_number | Intero | Numero di sequenza di questo evento. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre response.function_call_arguments.delta.Valori possibili: response.function_call_arguments.delta |
Sì |
OpenAI.ResponseImageGenCallGeneratingEvent
Generato quando una chiamata dello strumento di generazione di immagini genera attivamente un'immagine (stato intermedio).
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| item_id | Stringa | Identificatore univoco dell'elemento di generazione dell'immagine in fase di elaborazione. | Sì | |
| output_index | Intero | Indice dell'elemento di output nella matrice di output della risposta. | Sì | |
| sequence_number | Intero | Numero di sequenza dell'elemento di generazione dell'immagine da elaborare. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre "response.image_generation_call.generating". Valori possibili: response.image_generation_call.generating |
Sì |
OpenAI.ResponseImageGenCallInProgressEvent
Generato quando è in corso una chiamata dello strumento di generazione di immagini.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| item_id | Stringa | Identificatore univoco dell'elemento di generazione dell'immagine in fase di elaborazione. | Sì | |
| output_index | Intero | Indice dell'elemento di output nella matrice di output della risposta. | Sì | |
| sequence_number | Intero | Numero di sequenza dell'elemento di generazione dell'immagine da elaborare. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre 'response.image_generation_call.in_progress'. Valori possibili: response.image_generation_call.in_progress |
Sì |
OpenAI.ResponseImageGenCallPartialImageEvent
Generato quando un'immagine parziale è disponibile durante il flusso di generazione di immagini.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| item_id | Stringa | Identificatore univoco dell'elemento di generazione dell'immagine in fase di elaborazione. | Sì | |
| output_index | Intero | Indice dell'elemento di output nella matrice di output della risposta. | Sì | |
| partial_image_b64 | Stringa | Dati parziali con codifica Base64, adatti per il rendering come immagine. | Sì | |
| partial_image_index | Intero | Indice in base 0 per l'immagine parziale (il back-end è basato su 1, ma questo è basato su 0 per l'utente). | Sì | |
| sequence_number | Intero | Numero di sequenza dell'elemento di generazione dell'immagine da elaborare. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre 'response.image_generation_call.partial_image'. Valori possibili: response.image_generation_call.partial_image |
Sì |
OpenAI.ResponseInProgressEvent
Emessa quando la risposta è in corso.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Risposta | OpenAI.Response | Sì | ||
| └* sfondo | booleano o null | No | ||
| └completed_at | stringa o null | No | ||
| └content_filters | matrice di AzureContentFilterForResponsesAPI | Il filtro contenuto restituisce i risultati di RAI. | Sì | |
| └* conversazione | OpenAI.ConversationReference o Null | No | ||
| └created_at | Intero | Timestamp Unix (in pochi secondi) di quando questa Risposta è stata creata. | Sì | |
| Errore └* | OpenAI.ResponseError o null | Sì | ||
| └* id | Stringa | Identificatore unico per questa Risposta. | Sì | |
| └incomplete_details | OpenAI.ResponseIncompleteDetails o null | Sì | ||
| └* istruzioni | stringa o matrice di OpenAI.InputItem o null | Sì | ||
| └max_output_tokens | integer o null | No | ||
| └max_tool_calls | integer o null | No | ||
| Metadati └* | OpenAI.Metadata o Null | No | ||
| Modello └* | Stringa | ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAIoffre un'ampia gamma di modelli con diverse funzionalità, prestazioni caratteristiche e punti di prezzo. Fare riferimento alla guida al modello per esplorare e confrontare i modelli disponibili. |
No | |
| Oggetto └* | Enum | Il tipo di oggetto di questa risorsa - sempre impostato a response.Valori possibili: response |
Sì | |
| └* output | matrice di OpenAI.OutputItem | Una serie di elementi di contenuto generati dal modello. - La lunghezza e l'ordine degli elementi nella output matrice dipendonosulla risposta del modello. - Anziché accedere al primo elemento nella output matrice epresupponendo che si tratti di un assistant messaggio con il contenuto generato dail modello, è consigliabile usare la proprietà in output_text cuisupportato negli SDK. |
Sì | |
| └output_text | stringa o null | No | ||
| └parallel_tool_calls | Boolean | Se permettere al modello di eseguire chiamate di strumenti in parallelo. | Sì | Vero |
| └previous_response_id | stringa o null | No | ||
| └* prompt | OpenAI.Prompt | Riferimento a un modello di richiesta e alle relative variabili. Altre informazioni. |
No | |
| └prompt_cache_key | Stringa | Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo.
Altre informazioni. |
No | |
| └prompt_cache_retention | stringa o null | No | ||
| └* ragionamento | OpenAI.Reasoning o null | No | ||
| └safety_identifier | Stringa | Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI. Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni. |
No | |
| └* stato | Enum | Lo stato della generazione della risposta. Uno di completed, failed,in_progress
cancelled, queued, o incomplete.Valori possibili: completed, failed, in_progress, cancelled, queued, incomplete |
No | |
| └* temperatura | number o null | No | 1 | |
| └* testo | OpenAI.ResponseTextParam | Opzioni di configurazione per una risposta testuale dal modello. Può essere semplice dati JSON strutturati o di testo. Ulteriori informazioni: - Input di testo e output - Output strutturati |
No | |
| └tool_choice | OpenAI.ToolChoiceParam | Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione una risposta. Vedere il tools parametro per vedere come specificare gli strumentiil modello può chiamare. |
No | |
| Strumenti └* | OpenAI.ToolsArray | Una serie di strumenti che il modello può chiamare mentre genera una risposta. Tu può specificare quale strumento usare impostando il tool_choice parametro .Sono supportate le categorie di strumenti seguenti: - Strumenti integrati: Strumenti forniti da OpenAI che estendono la funzionalità del modello, ad esempio la ricerca Web o ricerca di file. Altre informazioni strumenti predefiniti. - Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni Strumenti MCP. - Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente, abilitazione del modello per chiamare il proprio codice con argomenti fortemente tipizzato e output. Altre informazioni chiamata di funzione. È anche possibile usare strumenti personalizzati per chiamare il proprio codice. |
No | |
| └top_logprobs | integer o null | No | ||
| └top_p | number o null | No | 1 | |
| └\ troncamento | stringa o null | No | Disabili | |
| └* utilizzo | OpenAI.ResponseUsage | Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output, suddivisione dei token di output e dei token totali usati. |
No | |
| └* utente | stringa (deprecata) | Questo campo viene sostituito da safety_identifier e prompt_cache_key. Usare prompt_cache_key invece per mantenere le ottimizzazioni della memorizzazione nella cache.Identificatore stabile per gli utenti finali. Usato per aumentare la frequenza di riscontri nella cache migliorando il bucket di richieste simili e per consentire a OpenAI di rilevare e prevenire abusi. Altre informazioni. |
No | |
| sequence_number | Intero | Numero di sequenza di questo evento. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre response.in_progress.Valori possibili: response.in_progress |
Sì |
OpenAI.ResponseIncompleteDetails
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Motivo | Enum | Valori possibili: max_output_tokens, content_filter |
No |
OpenAI.ResponseIncompleteEvent
Un evento che viene emesso quando una risposta termina come incompleta.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Risposta | OpenAI.Response | Sì | ||
| └* sfondo | booleano o null | No | ||
| └completed_at | stringa o null | No | ||
| └content_filters | matrice di AzureContentFilterForResponsesAPI | Il filtro contenuto restituisce i risultati di RAI. | Sì | |
| └* conversazione | OpenAI.ConversationReference o Null | No | ||
| └created_at | Intero | Timestamp Unix (in pochi secondi) di quando questa Risposta è stata creata. | Sì | |
| Errore └* | OpenAI.ResponseError o null | Sì | ||
| └* id | Stringa | Identificatore unico per questa Risposta. | Sì | |
| └incomplete_details | OpenAI.ResponseIncompleteDetails o null | Sì | ||
| └* istruzioni | stringa o matrice di OpenAI.InputItem o null | Sì | ||
| └max_output_tokens | integer o null | No | ||
| └max_tool_calls | integer o null | No | ||
| Metadati └* | OpenAI.Metadata o Null | No | ||
| Modello └* | Stringa | ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAIoffre un'ampia gamma di modelli con diverse funzionalità, prestazioni caratteristiche e punti di prezzo. Fare riferimento alla guida al modello per esplorare e confrontare i modelli disponibili. |
No | |
| Oggetto └* | Enum | Il tipo di oggetto di questa risorsa - sempre impostato a response.Valori possibili: response |
Sì | |
| └* output | matrice di OpenAI.OutputItem | Una serie di elementi di contenuto generati dal modello. - La lunghezza e l'ordine degli elementi nella output matrice dipendonosulla risposta del modello. - Anziché accedere al primo elemento nella output matrice epresupponendo che si tratti di un assistant messaggio con il contenuto generato dail modello, è consigliabile usare la proprietà in output_text cuisupportato negli SDK. |
Sì | |
| └output_text | stringa o null | No | ||
| └parallel_tool_calls | Boolean | Se permettere al modello di eseguire chiamate di strumenti in parallelo. | Sì | Vero |
| └previous_response_id | stringa o null | No | ||
| └* prompt | OpenAI.Prompt | Riferimento a un modello di richiesta e alle relative variabili. Altre informazioni. |
No | |
| └prompt_cache_key | Stringa | Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo.
Altre informazioni. |
No | |
| └prompt_cache_retention | stringa o null | No | ||
| └* ragionamento | OpenAI.Reasoning o null | No | ||
| └safety_identifier | Stringa | Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI. Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni. |
No | |
| └* stato | Enum | Lo stato della generazione della risposta. Uno di completed, failed,in_progress
cancelled, queued, o incomplete.Valori possibili: completed, failed, in_progress, cancelled, queued, incomplete |
No | |
| └* temperatura | number o null | No | 1 | |
| └* testo | OpenAI.ResponseTextParam | Opzioni di configurazione per una risposta testuale dal modello. Può essere semplice dati JSON strutturati o di testo. Ulteriori informazioni: - Input di testo e output - Output strutturati |
No | |
| └tool_choice | OpenAI.ToolChoiceParam | Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione una risposta. Vedere il tools parametro per vedere come specificare gli strumentiil modello può chiamare. |
No | |
| Strumenti └* | OpenAI.ToolsArray | Una serie di strumenti che il modello può chiamare mentre genera una risposta. Tu può specificare quale strumento usare impostando il tool_choice parametro .Sono supportate le categorie di strumenti seguenti: - Strumenti integrati: Strumenti forniti da OpenAI che estendono la funzionalità del modello, ad esempio la ricerca Web o ricerca di file. Altre informazioni strumenti predefiniti. - Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni Strumenti MCP. - Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente, abilitazione del modello per chiamare il proprio codice con argomenti fortemente tipizzato e output. Altre informazioni chiamata di funzione. È anche possibile usare strumenti personalizzati per chiamare il proprio codice. |
No | |
| └top_logprobs | integer o null | No | ||
| └top_p | number o null | No | 1 | |
| └\ troncamento | stringa o null | No | Disabili | |
| └* utilizzo | OpenAI.ResponseUsage | Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output, suddivisione dei token di output e dei token totali usati. |
No | |
| └* utente | stringa (deprecata) | Questo campo viene sostituito da safety_identifier e prompt_cache_key. Usare prompt_cache_key invece per mantenere le ottimizzazioni della memorizzazione nella cache.Identificatore stabile per gli utenti finali. Usato per aumentare la frequenza di riscontri nella cache migliorando il bucket di richieste simili e per consentire a OpenAI di rilevare e prevenire abusi. Altre informazioni. |
No | |
| sequence_number | Intero | Numero di sequenza di questo evento. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre response.incomplete.Valori possibili: response.incomplete |
Sì |
OpenAI.ResponseItemList
Una lista di elementi di risposta.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | matrice di OpenAI.ItemResource | Un elenco degli elementi usati per generare questa risposta. | Sì | |
| first_id | Stringa | L'ID del primo elemento della lista. | Sì | |
| has_more | Boolean | Se ci sono altri articoli disponibili. | Sì | |
| last_id | Stringa | L'ID dell'ultimo elemento della lista. | Sì | |
| Oggetto | Enum | Il tipo di oggetto restituito deve essere list.Valori possibili: list |
Sì |
OpenAI.ResponseLogProb
Un logprob è la probabilità logaritmica assegnata dal modello alla produzione di un token specifico in una determinata posizione nella sequenza. I valori di logprob meno negativi (superiori) indicano maggiore attendibilità del modello in tale scelta di token.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| logprob | Numero | La probabilità logaritmica di questo token. | Sì | |
| Token | Stringa | Un possibile token di testo. | Sì | |
| top_logprobs | matrice di OpenAI.ResponseLogProbTopLogprobs | Probabilità di log dei primi 20 token più probabili. | No |
OpenAI.ResponseLogProbTopLogprobs
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| logprob | Numero | No | ||
| Token | Stringa | No |
OpenAI.ResponseMCPCallArgumentsDeltaEvent
Generato quando è presente un delta (aggiornamento parziale) agli argomenti di una chiamata allo strumento MCP.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Delta | Stringa | Stringa JSON contenente l'aggiornamento parziale agli argomenti per la chiamata allo strumento MCP. | Sì | |
| item_id | Stringa | Identificatore univoco dell'elemento di chiamata dello strumento MCP in fase di elaborazione. | Sì | |
| output_index | Intero | Indice dell'elemento di output nella matrice di output della risposta. | Sì | |
| sequence_number | Intero | Numero di sequenza di questo evento. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre "response.mcp_call_arguments.delta". Valori possibili: response.mcp_call_arguments.delta |
Sì |
OpenAI.ResponseMCPCallFailedEvent
Generato quando una chiamata allo strumento MCP non è riuscita.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| item_id | Stringa | ID dell'elemento di chiamata dello strumento MCP non riuscito. | Sì | |
| output_index | Intero | Indice dell'elemento di output non riuscito. | Sì | |
| sequence_number | Intero | Numero di sequenza di questo evento. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre 'response.mcp_call.failed'. Valori possibili: response.mcp_call.failed |
Sì |
OpenAI.ResponseMCPCallInProgressEvent
Generato quando è in corso una chiamata allo strumento MCP.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| item_id | Stringa | Identificatore univoco dell'elemento di chiamata dello strumento MCP in fase di elaborazione. | Sì | |
| output_index | Intero | Indice dell'elemento di output nella matrice di output della risposta. | Sì | |
| sequence_number | Intero | Numero di sequenza di questo evento. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre 'response.mcp_call.in_progress'. Valori possibili: response.mcp_call.in_progress |
Sì |
OpenAI.ResponseMCPListToolsFailedEvent
Generato quando il tentativo di elencare gli strumenti MCP disponibili non è riuscito.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| item_id | Stringa | ID dell'elemento di chiamata dello strumento MCP non riuscito. | Sì | |
| output_index | Intero | Indice dell'elemento di output non riuscito. | Sì | |
| sequence_number | Intero | Numero di sequenza di questo evento. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre 'response.mcp_list_tools.failed'. Valori possibili: response.mcp_list_tools.failed |
Sì |
OpenAI.ResponseMCPListToolsInProgressEvent
Generato quando il sistema è in corso di recupero dell'elenco degli strumenti MCP disponibili.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| item_id | Stringa | ID dell'elemento di chiamata dello strumento MCP in fase di elaborazione. | Sì | |
| output_index | Intero | Indice dell'elemento di output da elaborare. | Sì | |
| sequence_number | Intero | Numero di sequenza di questo evento. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre 'response.mcp_list_tools.in_progress'. Valori possibili: response.mcp_list_tools.in_progress |
Sì |
OpenAI.ResponseModalities
Tipi di output che vorresti che il modello generasse.
La maggior parte dei modelli è in grado di generare testo, ovvero l'impostazione predefinita:
["text"] Il gpt-4o-audio-preview modello può essere usato anche per generare audio. Per richiedere che questo modello generi risposte sia di testo che audio, è possibile usare: ["text", "audio"]
Questo schema accetta uno dei tipi seguenti:
- Matrice
- Null
OpenAI.ResponseOutputItemAddedEvent
Emessa quando viene aggiunto un nuovo elemento di output.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Elemento | OpenAI.OutputItem | Sì | ||
| Tipo └* | OpenAI.OutputItemType | Sì | ||
| output_index | Intero | L'indice dell'elemento di output che è stato aggiunto. | Sì | |
| sequence_number | Intero | Numero di sequenza di questo evento. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre response.output_item.added.Valori possibili: response.output_item.added |
Sì |
OpenAI.ResponseOutputTextAnnotationAddedEvent
Generato quando viene aggiunta un'annotazione al contenuto di testo di output.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Annotazione | OpenAI.Annotation | Annotazione applicabile a un intervallo di testo di output. | Sì | |
| Tipo └* | OpenAI.AnnotationType | Sì | ||
| annotation_index | Intero | Indice dell'annotazione all'interno della parte del contenuto. | Sì | |
| content_index | Intero | Indice della parte di contenuto all'interno dell'elemento di output. | Sì | |
| item_id | Stringa | Identificatore univoco dell'elemento a cui viene aggiunta l'annotazione. | Sì | |
| output_index | Intero | Indice dell'elemento di output nella matrice di output della risposta. | Sì | |
| sequence_number | Intero | Numero di sequenza di questo evento. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre 'response.output_text.annotation.added'. Valori possibili: response.output_text.annotation.added |
Sì |
OpenAI.ResponsePromptVariables
Mapping facoltativo dei valori da sostituire con le variabili nel prompt. I valori di sostituzione possono essere stringhe o altri tipi di input response, ad esempio immagini o file.
Tipo: oggetto
OpenAI.ResponseQueuedEvent
Generato quando una risposta viene accodata e in attesa di essere elaborata.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Risposta | OpenAI.Response | Sì | ||
| └* sfondo | booleano o null | No | ||
| └completed_at | stringa o null | No | ||
| └content_filters | matrice di AzureContentFilterForResponsesAPI | Il filtro contenuto restituisce i risultati di RAI. | Sì | |
| └* conversazione | OpenAI.ConversationReference o Null | No | ||
| └created_at | Intero | Timestamp Unix (in pochi secondi) di quando questa Risposta è stata creata. | Sì | |
| Errore └* | OpenAI.ResponseError o null | Sì | ||
| └* id | Stringa | Identificatore unico per questa Risposta. | Sì | |
| └incomplete_details | OpenAI.ResponseIncompleteDetails o null | Sì | ||
| └* istruzioni | stringa o matrice di OpenAI.InputItem o null | Sì | ||
| └max_output_tokens | integer o null | No | ||
| └max_tool_calls | integer o null | No | ||
| Metadati └* | OpenAI.Metadata o Null | No | ||
| Modello └* | Stringa | ID modello usato per generare la risposta, ad esempio gpt-4o o o3. OpenAIoffre un'ampia gamma di modelli con diverse funzionalità, prestazioni caratteristiche e punti di prezzo. Fare riferimento alla guida al modello per esplorare e confrontare i modelli disponibili. |
No | |
| Oggetto └* | Enum | Il tipo di oggetto di questa risorsa - sempre impostato a response.Valori possibili: response |
Sì | |
| └* output | matrice di OpenAI.OutputItem | Una serie di elementi di contenuto generati dal modello. - La lunghezza e l'ordine degli elementi nella output matrice dipendonosulla risposta del modello. - Anziché accedere al primo elemento nella output matrice epresupponendo che si tratti di un assistant messaggio con il contenuto generato dail modello, è consigliabile usare la proprietà in output_text cuisupportato negli SDK. |
Sì | |
| └output_text | stringa o null | No | ||
| └parallel_tool_calls | Boolean | Se permettere al modello di eseguire chiamate di strumenti in parallelo. | Sì | Vero |
| └previous_response_id | stringa o null | No | ||
| └* prompt | OpenAI.Prompt | Riferimento a un modello di richiesta e alle relative variabili. Altre informazioni. |
No | |
| └prompt_cache_key | Stringa | Usato da OpenAI per memorizzare nella cache le risposte per richieste simili per ottimizzare la frequenza di riscontri nella cache. Sostituisce il user campo.
Altre informazioni. |
No | |
| └prompt_cache_retention | stringa o null | No | ||
| └* ragionamento | OpenAI.Reasoning o null | No | ||
| └safety_identifier | Stringa | Identificatore stabile usato per rilevare gli utenti dell'applicazione che potrebbero violare i criteri di utilizzo di OpenAI. Gli ID devono essere una stringa che identifica in modo univoco ogni utente. È consigliabile eseguire l'hashing del nome utente o dell'indirizzo di posta elettronica per evitare di inviare informazioni di identificazione. Altre informazioni. |
No | |
| └* stato | Enum | Lo stato della generazione della risposta. Uno di completed, failed,in_progress
cancelled, queued, o incomplete.Valori possibili: completed, failed, in_progress, cancelled, queued, incomplete |
No | |
| └* temperatura | number o null | No | 1 | |
| └* testo | OpenAI.ResponseTextParam | Opzioni di configurazione per una risposta testuale dal modello. Può essere semplice dati JSON strutturati o di testo. Ulteriori informazioni: - Input di testo e output - Output strutturati |
No | |
| └tool_choice | OpenAI.ToolChoiceParam | Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione una risposta. Vedere il tools parametro per vedere come specificare gli strumentiil modello può chiamare. |
No | |
| Strumenti └* | OpenAI.ToolsArray | Una serie di strumenti che il modello può chiamare mentre genera una risposta. Tu può specificare quale strumento usare impostando il tool_choice parametro .Sono supportate le categorie di strumenti seguenti: - Strumenti integrati: Strumenti forniti da OpenAI che estendono la funzionalità del modello, ad esempio la ricerca Web o ricerca di file. Altre informazioni strumenti predefiniti. - Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni Strumenti MCP. - Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente, abilitazione del modello per chiamare il proprio codice con argomenti fortemente tipizzato e output. Altre informazioni chiamata di funzione. È anche possibile usare strumenti personalizzati per chiamare il proprio codice. |
No | |
| └top_logprobs | integer o null | No | ||
| └top_p | number o null | No | 1 | |
| └\ troncamento | stringa o null | No | Disabili | |
| └* utilizzo | OpenAI.ResponseUsage | Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output, suddivisione dei token di output e dei token totali usati. |
No | |
| └* utente | stringa (deprecata) | Questo campo viene sostituito da safety_identifier e prompt_cache_key. Usare prompt_cache_key invece per mantenere le ottimizzazioni della memorizzazione nella cache.Identificatore stabile per gli utenti finali. Usato per aumentare la frequenza di riscontri nella cache migliorando il bucket di richieste simili e per consentire a OpenAI di rilevare e prevenire abusi. Altre informazioni. |
No | |
| sequence_number | Intero | Numero di sequenza per questo evento. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre 'response.queued'. Valori possibili: response.queued |
Sì |
OpenAI.ResponseReasoningSummaryPartAddedEvent
Generato quando viene aggiunta una nuova parte di riepilogo del ragionamento.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| item_id | Stringa | L'ID dell'elemento a cui è associata questa parte di riepilogo. | Sì | |
| output_index | Intero | L'indice dell'elemento di output a cui è associata questa parte di riepilogo. | Sì | |
| Parte | OpenAI.ResponseReasoningSummaryPartAddedEventPart | Sì | ||
| └* testo | Stringa | Sì | ||
| Tipo └* | Enum | Valori possibili: summary_text |
Sì | |
| sequence_number | Intero | Numero di sequenza di questo evento. | Sì | |
| summary_index | Intero | Indice della parte di riepilogo all'interno del riepilogo del ragionamento. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre response.reasoning_summary_part.added.Valori possibili: response.reasoning_summary_part.added |
Sì |
OpenAI.ResponseReasoningSummaryPartAddedEventPart
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Testo | Stringa | Sì | ||
| digitare | Enum | Valori possibili: summary_text |
Sì |
OpenAI.ResponseReasoningSummaryTextDeltaEvent
Generato quando un delta viene aggiunto a un testo di riepilogo del ragionamento.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Delta | Stringa | Delta del testo aggiunto al riepilogo. | Sì | |
| item_id | Stringa | L'ID dell'elemento a cui è associato questo delta del testo di riepilogo. | Sì | |
| output_index | Intero | L'indice dell'elemento di output a cui è associato questo delta del testo di riepilogo. | Sì | |
| sequence_number | Intero | Numero di sequenza di questo evento. | Sì | |
| summary_index | Intero | Indice della parte di riepilogo all'interno del riepilogo del ragionamento. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre response.reasoning_summary_text.delta.Valori possibili: response.reasoning_summary_text.delta |
Sì |
OpenAI.ResponseReasoningTextDeltaEvent
Generato quando un delta viene aggiunto a un testo di ragionamento.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| content_index | Intero | L'indice della parte del contenuto di ragionamento a cui è associato questo delta. | Sì | |
| Delta | Stringa | Delta del testo aggiunto al contenuto del ragionamento. | Sì | |
| item_id | Stringa | L'ID dell'elemento a cui è associato questo delta del testo di ragionamento. | Sì | |
| output_index | Intero | L'indice dell'elemento di output a cui è associato questo delta del testo di ragionamento. | Sì | |
| sequence_number | Intero | Numero di sequenza di questo evento. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre response.reasoning_text.delta.Valori possibili: response.reasoning_text.delta |
Sì |
OpenAI.ResponseRefusalDeltaEvent
Emessa quando c'è un testo di rifiuto parziale.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| content_index | Intero | L'indice del contenuto a cui viene aggiunto il testo del rifiuto. | Sì | |
| Delta | Stringa | Il testo di rifiuto che viene aggiunto. | Sì | |
| item_id | Stringa | L'ID dell'elemento di output a cui viene aggiunto il testo di rifiuto. | Sì | |
| output_index | Intero | L'indice dell'elemento di output a cui viene aggiunto il testo di rifiuto. | Sì | |
| sequence_number | Intero | Numero di sequenza di questo evento. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre response.refusal.delta.Valori possibili: response.refusal.delta |
Sì |
OpenAI.ResponseStreamOptions
Opzioni per le risposte in streaming. Imposta questo solo quando imposti stream: true.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| include_obfuscation | Boolean | Se true, l'offuscamento del flusso verrà abilitato. Aggiunta dell'offuscamento del flusso caratteri casuali in un obfuscation campo sugli eventi delta di streaming anormalizzare le dimensioni del payload come mitigazione per determinati attacchi sul canale laterale. Questi campi offuscamento sono inclusi per impostazione predefinita, ma aggiungono una piccola quantità sovraccarico per il flusso di dati. È possibile impostare su include_obfuscationfalse per ottimizzare la larghezza di banda se si considera attendibile il collegamento di rete tra l'applicazione e l'API OpenAI. |
No |
OpenAI.ResponseTextDeltaEvent
Emessa quando c'è un delta di testo aggiuntivo.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| content_index | Intero | L'indice della parte di contenuto a cui è stato aggiunto il delta di testo. | Sì | |
| Delta | Stringa | Il testo delta che è stato aggiunto. | Sì | |
| item_id | Stringa | L'ID dell'elemento di output a cui è stato aggiunto il delta di testo. | Sì | |
| logprobs | matrice di OpenAI.ResponseLogProb | Probabilità di log dei token nel delta. | Sì | |
| output_index | Intero | L'indice dell'elemento di output a cui è stato aggiunto il delta di testo. | Sì | |
| sequence_number | Intero | Numero di sequenza per questo evento. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre response.output_text.delta.Valori possibili: response.output_text.delta |
Sì |
OpenAI.ResponseTextParam
Opzioni di configurazione per una risposta testuale dal modello. Possono essere dati in testo semplice o JSON strutturati. Ulteriori informazioni:
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Formato | OpenAI.TextResponseFormatConfiguration | Un oggetto che specifica il formato che il modello deve generare. La configurazione { "type": "json_schema" } abilita output strutturati,che garantisce che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere Il formato predefinito è { "type": "text" } senza opzioni aggiuntive.*Non consigliato per i modelli gpt-4o e versioni successive: L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, chegarantisce che il messaggio generato dal modello sia JSON valido. Utilizzando json_schemaè preferibile per i modelli che lo supportano. |
No | |
| Dettaglio | OpenAI.Verbosity | Vincola il livello di dettaglio della risposta del modello. I valori inferiori genereranno risposte più concise, mentre valori più elevati generano risposte più dettagliate. I valori attualmente supportati sono low, medium, e high. |
No |
OpenAI.ResponseUsage
Rappresenta i dettagli sull'utilizzo dei token inclusi token di input, token di output, una suddivisione dei token di output e il totale dei token utilizzati.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| input_tokens | Intero | Il numero di token di input. | Sì | |
| input_tokens_details | OpenAI.ResponseUsageInputTokensDetails | Sì | ||
| └cached_tokens | Intero | Sì | ||
| output_tokens | Intero | Il numero di token di output. | Sì | |
| output_tokens_details | OpenAI.ResponseUsageOutputTokensDetails | Sì | ||
| └reasoning_tokens | Intero | Sì | ||
| total_tokens | Intero | Il numero totale di gettoni utilizzati. | Sì |
OpenAI.ResponseUsageInputTokensDetails
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| cached_tokens | Intero | Sì |
OpenAI.ResponseUsageOutputTokensDetails
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| reasoning_tokens | Intero | Sì |
OpenAI.ResponseWebSearchCallInProgressEvent
Nota: web_search non è ancora disponibile tramite Azure OpenAI.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| item_id | Stringa | ID univoco per l'elemento di output associato alla chiamata di ricerca Web. | Sì | |
| output_index | Intero | Indice dell'elemento di output a cui è associata la chiamata di ricerca Web. | Sì | |
| sequence_number | Intero | Numero di sequenza della chiamata di ricerca Web in corso di elaborazione. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre response.web_search_call.in_progress.Valori possibili: response.web_search_call.in_progress |
Sì |
OpenAI.ResponseWebSearchCallSearchingEvent
Nota: web_search non è ancora disponibile tramite Azure OpenAI.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| item_id | Stringa | ID univoco per l'elemento di output associato alla chiamata di ricerca Web. | Sì | |
| output_index | Intero | Indice dell'elemento di output a cui è associata la chiamata di ricerca Web. | Sì | |
| sequence_number | Intero | Numero di sequenza della chiamata di ricerca Web in corso di elaborazione. | Sì | |
| digitare | Enum | Il tipo di evento. Sempre response.web_search_call.searching.Valori possibili: response.web_search_call.searching |
Sì |
OpenAI.RunCompletionUsage
Statistiche di utilizzo relative alla corsa. Questo valore sarà null se l'esecuzione non è in uno stato terminale (ad esempio in_progress, e queuedcosì via).
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| completion_tokens | Intero | Numero di gettoni di completamento usati durante la run. | Sì | |
| prompt_tokens | Intero | Numero di token prompt usati durante la run. | Sì | |
| total_tokens | Intero | Numero totale di gettoni utilizzati (prompt + completamento). | Sì |
OpenAI.RunGraderRequest
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Selezionatore | OpenAI.GraderStringCheck o OpenAI.GraderTextSimilarity o OpenAI.GraderPython o OpenAI.GraderScoreModel o OpenAI.GraderMulti o GraderEndpoint | Grader utilizzato per il processo di ottimizzazione. | Sì | |
| Elemento | OpenAI.RunGraderRequestItem | No | ||
| model_sample | Stringa | Esempio di modello da valutare. Questo valore verrà usato per popolare spazio sample dei nomi. Per altri dettagli, vedere la guida .La output_json variabile verrà popolata se l'esempio di modello è unstringa JSON valida. |
Sì |
OpenAI.RunGraderRequestItem
Tipo: oggetto
OpenAI.RunGraderResponse
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Metadati | OpenAI.RunGraderResponseMetadata | Sì | ||
| model_grader_token_usage_per_model | Oggetto | Sì | ||
| Ricompensa | Numero | Sì | ||
| sub_rewards | Oggetto | Sì |
OpenAI.RunGraderResponseMetadata
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Errori | OpenAI.RunGraderResponseMetadataErrors | Sì | ||
| execution_time | Numero | Sì | ||
| Nome | Stringa | Sì | ||
| sampled_model_name | stringa o null | Sì | ||
| Punteggi | Oggetto | Sì | ||
| token_usage | integer o null | Sì | ||
| digitare | Stringa | Sì |
OpenAI.RunGraderResponseMetadataErrors
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| formula_parse_error | Boolean | Sì | ||
| invalid_variable_error | Boolean | Sì | ||
| model_grader_parse_error | Boolean | Sì | ||
| model_grader_refusal_error | Boolean | Sì | ||
| model_grader_server_error | Boolean | Sì | ||
| model_grader_server_error_details | stringa o null | Sì | ||
| other_error | Boolean | Sì | ||
| python_grader_runtime_error | Boolean | Sì | ||
| python_grader_runtime_error_details | stringa o null | Sì | ||
| python_grader_server_error | Boolean | Sì | ||
| python_grader_server_error_type | stringa o null | Sì | ||
| sample_parse_error | Boolean | Sì | ||
| truncated_observation_error | Boolean | Sì | ||
| unresponsive_reward_error | Boolean | Sì |
OpenAI.RunObject
Rappresenta un'esecuzione eseguita in un thread.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| assistant_id | Stringa | ID dell'assistente utilizzato per l'esecuzione di questa esecuzione. | Sì | |
| cancelled_at | stringa o null | Il timestamp Unix (in pochi secondi) indicava quando l'esecuzione veniva annullata. | Sì | |
| completed_at | stringa o null | Il timestamp Unix (in pochi secondi) indica quando l'esecuzione è stata completata. | Sì | |
| created_at | Intero | Il timestamp Unix (in secondi) indicava quando l'esecuzione è stata creata. | Sì | |
| expires_at | stringa o null | Il timestamp Unix (in pochi secondi) indica quando l'esecuzione scaderà. | Sì | |
| failed_at | stringa o null | Il timestamp Unix (in pochi secondi) indica quando l'esecuzione falliva. | Sì | |
| Id | Stringa | L'identificatore, che può essere consultato negli endpoint API. | Sì | |
| incomplete_details | OpenAI.RunObjectIncompleteDetails o null | Dettagli sul perché la run è incompleta.
null Sarà se l'esecuzione non è incompleta. |
Sì | |
| Istruzioni | Stringa | Istruzioni usate dall'assistente per questa esecuzione. | Sì | |
| last_error | OpenAI.RunObjectLastError o null | L'ultimo errore associato a questa corsa. Lo null sarà se non ci sono errori. |
Sì | |
| max_completion_tokens | integer o null | Il numero massimo di gettoni di completamento specificati da utilizzare durante la corsa. | Sì | |
| max_prompt_tokens | integer o null | Il numero massimo di token prompt specificati da utilizzare durante la corsa. | Sì | |
| Metadati | OpenAI.Metadata o Null | Sì | ||
| Modello | Stringa | Modello utilizzato dall'assistente per questa esecuzione. | Sì | |
| Oggetto | Enum | Il tipo di oggetto, che è sempre thread.run.Valori possibili: thread.run |
Sì | |
| parallel_tool_calls | OpenAI.ParallelToolCalls | Indica se abilitare la chiamata di funzioni parallele durante l'uso dello strumento. | Sì | |
| required_action | OpenAI.RunObjectRequiredAction o null | Dettagli sull'azione necessaria per continuare la corsa. Lo null sarà se non è necessaria alcuna azione. |
Sì | |
| response_format | OpenAI.AssistantsApiResponseFormatOption | Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo da gpt-3.5-turbo-1106.L'impostazione su { "type": "json_schema", "json_schema": {...} } consente agli output strutturati che assicurano che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.Importante:* quando si usa la modalità JSON, è anche necessario indicare al modello di produrre manualmente JSON tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto. |
Sì | |
| started_at | stringa o null | Il timestamp Unix (in pochi secondi) indica quando è stata avviata la run. | Sì | |
| Stato | OpenAI.RunStatus | Stato dell'esecuzione, che può essere queued, , in_progressrequires_action, cancelling, cancelled, failedcompleted, , incomplete, o expired. |
Sì | |
| Temperatura | number o null | La temperatura di campionamento utilizzata per questa prova. Se non impostato, il valore predefinito è 1. | No | |
| thread_id | Stringa | ID del thread eseguito in come parte di questa esecuzione. | Sì | |
| tool_choice | OpenAI.AssistantsApiToolChoiceOption | Controlla quale (se presente) strumento viene chiamato dal modello.none significa che il modello non richiamerà nessuno strumento ma invece genera un messaggio.auto è il valore predefinito e indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.required indica che il modello deve chiamare uno o più strumenti prima di rispondere all'utente.Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo. |
Sì | |
| Strumenti | matrice di OpenAI.AssistantTool | Elenco di strumenti usati dall'assistente per questa esecuzione. | Sì | [] |
| top_p | number o null | Il valore di campionamento del nucleo utilizzato per questa corsa. Se non impostato, il valore predefinito è 1. | No | |
| truncation_strategy | OpenAI.TruncationObject | Controlli su come un thread verrà troncato prima dell'esecuzione. Usa questo per controllare la finestra contestuale iniziale della run. | Sì | |
| Utilizzo | OpenAI.RunCompletionUsage o Null | Sì |
OpenAI.RunObjectIncompleteDetails
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Motivo | Enum | Valori possibili: max_completion_tokens, max_prompt_tokens |
No |
OpenAI.RunObjectLastError
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Codice | Enum | Valori possibili: server_error, rate_limit_exceeded, invalid_prompt |
Sì | |
| Messaggio | Stringa | Sì |
OpenAI.RunObjectRequiredAction
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| submit_tool_outputs | OpenAI.RunObjectRequiredActionSubmitToolOutputs | Sì | ||
| digitare | Enum | Valori possibili: submit_tool_outputs |
Sì |
OpenAI.RunObjectRequiredActionSubmitToolOutputs
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| tool_calls | matrice di OpenAI.RunToolCallObject | Sì |
OpenAI.RunStatus
Stato dell'esecuzione, che può essere queued, , in_progressrequires_action, cancelling, cancelled, failedcompleted, , incomplete, o expired.
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | queuedin_progressrequires_actioncancellingcancelledfailedcompletedincompleteexpired |
OpenAI.RunStepCompletionUsage
Statistiche di utilizzo relative al passo di corsa. Questo valore sarà null mentre lo stato del passo di corsa è in_progress.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| completion_tokens | Intero | Numero di token di completamento utilizzati durante la fase di corsa. | Sì | |
| prompt_tokens | Intero | Numero di gettoni di prompt usati durante il passo di corsa. | Sì | |
| total_tokens | Intero | Numero totale di gettoni utilizzati (prompt + completamento). | Sì |
OpenAI.RunStepDetailsMessageCreationObject
Dettagli della creazione del messaggio per passo di esecuzione.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| message_creation | OpenAI.RunStepDetailsMessageCreationObjectMessageCreation | Sì | ||
| digitare | Enum | Sempre message_creation.Valori possibili: message_creation |
Sì |
OpenAI.RunStepDetailsMessageCreationObjectMessageCreation
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| message_id | Stringa | Sì |
OpenAI.RunStepDetailsToolCall
Discriminare per OpenAI.RunStepDetailsToolCall
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
code_interpreter |
OpenAI.RunStepDetailsToolCallsCodeObject |
file_search |
OpenAI.RunStepDetailsToolCallsFileSearchObject |
function |
OpenAI.RunStepDetailsToolCallsFunctionObject |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.RunStepDetailsToolCallType | Sì |
OpenAI.RunStepDetailsToolCallType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | code_interpreterfile_searchfunction |
OpenAI.RunStepDetailsToolCallsCodeObject
I dettagli dello strumento Code Interpreter chiamano il passo di esecuzione in cui era coinvolto.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| code_interpreter | OpenAI.RunStepDetailsToolCallsCodeObjectCodeInterpreter | Sì | ||
| Input └* | Stringa | Sì | ||
| └* output | matrice di OpenAI.RunStepDetailsToolCallsCodeOutputLogsObject o OpenAI.RunStepDetailsToolCallsCodeOutputImageObject | Sì | ||
| Id | Stringa | L'ID della chiamata dello strumento. | Sì | |
| digitare | Enum | Il tipo di chiamata di attrezzo. Questo sarà code_interpreter sempre per questo tipo di chiamata di strumenti.Valori possibili: code_interpreter |
Sì |
OpenAI.RunStepDetailsToolCallsCodeObjectCodeInterpreter
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Input | Stringa | Sì | ||
| Uscite | matrice di OpenAI.RunStepDetailsToolCallsCodeOutputLogsObject o OpenAI.RunStepDetailsToolCallsCodeOutputImageObject | Sì |
OpenAI.RunStepDetailsToolCallsCodeOutputImageObject
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Immagine | OpenAI.RunStepDetailsToolCallsCodeOutputImageObjectImage | Sì | ||
| digitare | Enum | Sempre image.Valori possibili: image |
Sì |
OpenAI.RunStepDetailsToolCallsCodeOutputImageObjectImage
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| File_id | Stringa | Sì |
OpenAI.RunStepDetailsToolCallsCodeOutputLogsObject
L'output di testo dallo strumento Code Interpreter chiama come parte di un run step.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Registri | Stringa | L'output del testo dallo strumento Code Interpreter chiama. | Sì | |
| digitare | Enum | Sempre logs.Valori possibili: logs |
Sì |
OpenAI.RunStepDetailsToolCallsFileSearchObject
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| file_search | OpenAI.RunStepDetailsToolCallsFileSearchObjectFileSearch | Sì | ||
| └ranking_options | OpenAI.RunStepDetailsToolCallsFileSearchRankingOptionsObject | Opzioni di classificazione per la ricerca di file. | No | |
| └* risultati | matrice di OpenAI.RunStepDetailsToolCallsFileSearchResultObject | No | ||
| Id | Stringa | L'ID dell'oggetto di chiamata dello strumento. | Sì | |
| digitare | Enum | Il tipo di chiamata di attrezzo. Questo sarà file_search sempre per questo tipo di chiamata di strumenti.Valori possibili: file_search |
Sì |
OpenAI.RunStepDetailsToolCallsFileSearchObjectFileSearch
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| ranking_options | OpenAI.RunStepDetailsToolCallsFileSearchRankingOptionsObject | Opzioni di classificazione per la ricerca di file. | No | |
| Risultati | matrice di OpenAI.RunStepDetailsToolCallsFileSearchResultObject | No |
OpenAI.RunStepDetailsToolCallsFileSearchRankingOptionsObject
Opzioni di classificazione per la ricerca di file.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| ranker | OpenAI.FileSearchRanker | Il ranker da usare per la ricerca dei file. Se non specificato, userà il auto ranker. |
Sì | |
| score_threshold | Numero | Soglia del punteggio per la ricerca di file. Tutti i valori devono essere un numero in virgola mobile compreso tra 0 e 1. Vincoli: min: 0, max: 1 |
Sì |
OpenAI.RunStepDetailsToolCallsFileSearchResultObject
Un'istanza risultante della ricerca file.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Contenuto | matrice di OpenAI.RunStepDetailsToolCallsFileSearchResultObjectContent | Il contenuto del risultato che è stato trovato. Il contenuto è incluso solo se richiesto tramite il parametro di query include. | No | |
| File_id | Stringa | L'ID del file in cui è stato trovato quel risultato. | Sì | |
| file_name | Stringa | Il nome del file in cui è stato trovato quel risultato. | Sì | |
| Punteggio | Numero | Il punteggio del risultato. Tutti i valori devono essere un numero in virgola mobile compreso tra 0 e 1. Vincoli: min: 0, max: 1 |
Sì |
OpenAI.RunStepDetailsToolCallsFileSearchResultObjectContent
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Testo | Stringa | No | ||
| digitare | Enum | Valori possibili: text |
No |
OpenAI.RunStepDetailsToolCallsFunctionObject
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Funzione | OpenAI.RunStepDetailsToolCallsFunctionObjectFunction | Sì | ||
| Argomenti └* | Stringa | Sì | ||
| └> nome | Stringa | Sì | ||
| └* output | stringa o null | Sì | ||
| Id | Stringa | L'ID dell'oggetto di chiamata dello strumento. | Sì | |
| digitare | Enum | Il tipo di chiamata di attrezzo. Questo sarà function sempre per questo tipo di chiamata di strumenti.Valori possibili: function |
Sì |
OpenAI.RunStepDetailsToolCallsFunctionObjectFunction
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Argomenti | Stringa | Sì | ||
| Nome | Stringa | Sì | ||
| Output | stringa o null | Sì |
OpenAI.RunStepDetailsToolCallsObject
Dettagli della chiamata dello strumento.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| tool_calls | matrice di OpenAI.RunStepDetailsToolCall | Una serie di chiamate di strumenti a cui il run step era coinvolto. Questi possono essere associati a uno dei tre tipi di strumenti: code_interpreter, file_searcho function. |
Sì | |
| digitare | Enum | Sempre tool_calls.Valori possibili: tool_calls |
Sì |
OpenAI.RunStepObject
Rappresenta un passaggio nell'esecuzione di una corsa.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| assistant_id | Stringa | ID dell'assistente associato al passaggio di esecuzione. | Sì | |
| cancelled_at | stringa o null | Sì | ||
| completed_at | stringa o null | Sì | ||
| created_at | Intero | Il timestamp Unix (in secondi) indica quando è stato creato il passo di esecuzione. | Sì | |
| expired_at | stringa o null | Sì | ||
| failed_at | stringa o null | Sì | ||
| Id | Stringa | L'identificatore del passo di esecuzione, che può essere riferito negli endpoint API. | Sì | |
| last_error | OpenAI.RunStepObjectLastError o null | Sì | ||
| Metadati | OpenAI.Metadata o Null | Sì | ||
| Oggetto | Enum | Il tipo di oggetto, che è sempre thread.run.step.Valori possibili: thread.run.step |
Sì | |
| run_id | Stringa | ID dell'esecuzione di cui fa parte questo passaggio di esecuzione. | Sì | |
| Stato | Enum | Stato del passaggio di esecuzione, che può essere in_progress, , cancelledfailed, completedo expired.Valori possibili: in_progress, cancelled, failed, completed, expired |
Sì | |
| step_details | OpenAI.RunStepDetailsMessageCreationObject o OpenAI.RunStepDetailsToolCallsObject | I dettagli del passo di corsa. | Sì | |
| thread_id | Stringa | ID del thread eseguito. | Sì | |
| digitare | Enum | Il tipo di passo di corsa, che può essere o message_creation o tool_calls.Valori possibili: message_creation, tool_calls |
Sì | |
| Utilizzo | OpenAI.RunStepCompletionUsage | Statistiche di utilizzo relative al passo di corsa. Questo valore sarà null mentre lo stato del passo di corsa è in_progress. |
Sì |
OpenAI.RunStepObjectLastError
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Codice | Enum | Valori possibili: server_error, rate_limit_exceeded |
Sì | |
| Messaggio | Stringa | Sì |
OpenAI.RunToolCallObject
Oggetti di chiamata degli strumenti
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Funzione | OpenAI.RunToolCallObjectFunction | Sì | ||
| Argomenti └* | Stringa | Sì | ||
| └> nome | Stringa | Sì | ||
| Id | Stringa | L'ID della chiamata dello strumento. Questo ID deve essere fatto riferimento quando si inviano gli output dello strumento in usando gli output dello strumento Invia per eseguire l'endpoint. | Sì | |
| digitare | Enum | Il tipo di chiamata dello strumento per cui è richiesta l'output. Per ora, questo è sempre function.Valori possibili: function |
Sì |
OpenAI.RunToolCallObjectFunction
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Argomenti | Stringa | Sì | ||
| Nome | Stringa | Sì |
OpenAI.Screenshot
Un'azione di screenshot.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Specifica il tipo di evento. Per un'azione screenshot, questa proprietà è sempre impostato su screenshot.Valori possibili: screenshot |
Sì |
OpenAI.Scroll
Un'azione di rotolamento.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| scroll_x | Intero | La distanza dello scroll orizzontale. | Sì | |
| scroll_y | Intero | La distanza di scroll verticale. | Sì | |
| digitare | Enum | Specifica il tipo di evento. Per un'azione di scorrimento, questa proprietà è sempre impostato su scroll.Valori possibili: scroll |
Sì | |
| X | Intero | La coordinata x in cui si è verificato lo scroll. | Sì | |
| Y | Intero | La coordinata y in cui si è verificato il scroll. | Sì |
OpenAI.SearchContextSize
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | lowmediumhigh |
OpenAI.SpecificApplyPatchParam
Forza il modello a chiamare lo strumento apply_patch durante l'esecuzione di una chiamata allo strumento.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Strumento da chiamare. Sempre apply_patch.Valori possibili: apply_patch |
Sì |
OpenAI.SpecificFunctionShellParam
Forza il modello a chiamare lo strumento shell quando è necessaria una chiamata allo strumento.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Strumento da chiamare. Sempre shell.Valori possibili: shell |
Sì |
OpenAI.StaticChunkingStrategy
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| chunk_overlap_tokens | Intero | Il numero di token che si sovrappongono tra i chunk. Il valore predefinito è 400.Si noti che la sovrapposizione non deve superare la metà di max_chunk_size_tokens. |
Sì | |
| max_chunk_size_tokens | Intero | Il numero massimo di gettoni in ogni blocco. Il valore predefinito è 800. Il valore minimo è 100 e il valore massimo è 4096.Vincoli: min: 100, max: 4096 |
Sì |
OpenAI.StaticChunkingStrategyRequestParam
Personalizzare la strategia di suddivisione in blocchi impostando le dimensioni dei blocchi e la sovrapposizione dei blocchi.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Statico | OpenAI.StaticChunkingStrategy | Sì | ||
| digitare | Enum | Sempre static.Valori possibili: static |
Sì |
OpenAI.StaticChunkingStrategyResponseParam
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Statico | OpenAI.StaticChunkingStrategy | Sì | ||
| digitare | Enum | Sempre static.Valori possibili: static |
Sì |
OpenAI.StopConfiguration
Non supportato con i modelli o3 di ragionamento più recenti e o4-mini.
Fino a quattro sequenze in cui l'API smetterà di generare ulteriori token. Il testo restituito non conterrà la sequenza di stop.
Questo schema accetta uno dei tipi seguenti:
- Matrice
- Null
OpenAI.SubmitToolOutputsRunRequest
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Flusso | booleano o null | No | ||
| tool_outputs | matrice di OpenAI.SubmitToolOutputsRunRequestToolOutputs | Un elenco degli strumenti per cui vengono inviati i risultati. | Sì |
OpenAI.SubmitToolOutputsRunRequestToolOutputs
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Output | Stringa | No | ||
| tool_call_id | Stringa | No |
OpenAI.Summary
Testo di riepilogo del modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Testo | Stringa | Riepilogo dell'output di ragionamento del modello finora. | Sì | |
| digitare | Enum | Il tipo di oggetto. Sempre summary_text.Valori possibili: summary_text |
Sì |
OpenAI.SummaryTextContent
Testo di riepilogo del modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Testo | Stringa | Riepilogo dell'output di ragionamento del modello finora. | Sì | |
| digitare | Enum | Il tipo di oggetto. Sempre summary_text.Valori possibili: summary_text |
Sì |
OpenAI.TextAnnotation
Discriminare per OpenAI.TextAnnotation
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
file_citation |
OpenAI.MessageContentTextAnnotationsFileCitationObject |
file_path |
OpenAI.MessageContentTextAnnotationsFilePathObject |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.TextAnnotationType | Sì |
OpenAI.TextAnnotationType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | file_citationfile_path |
OpenAI.TextContent
Contenuto di testo.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Testo | Stringa | Sì | ||
| digitare | Enum | Valori possibili: text |
Sì |
OpenAI.TextResponseFormatConfiguration
Un oggetto che specifica il formato che il modello deve generare.
La configurazione { "type": "json_schema" } abilita gli output strutturati, che garantisce che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere
Il formato predefinito è { "type": "text" } senza opzioni aggiuntive.
Non consigliato per gpt-4o e modelli più recenti:* Impostazione per { "type": "json_object" } abilitare la modalità JSON precedente, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferito per i modelli che lo supportano.
Discriminare per OpenAI.TextResponseFormatConfiguration
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
json_schema |
OpenAI.TextResponseFormatJsonSchema |
text |
OpenAI.TextResponseFormatConfigurationResponseFormatText |
json_object |
OpenAI.TextResponseFormatConfigurationResponseFormatJsonObject |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.TextResponseFormatConfigurationType | Sì |
OpenAI.TextResponseFormatConfigurationResponseFormatJsonObject
Formato della risposta dell'oggetto JSON. Metodo precedente di generazione di risposte JSON.
L'uso json_schema di è consigliato per i modelli che lo supportano. Si noti che il modello non genererà JSON senza un messaggio di sistema o utente che indica a tale scopo.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Il tipo di formato di risposta da definire. Sempre json_object.Valori possibili: json_object |
Sì |
OpenAI.TextResponseFormatConfigurationResponseFormatText
Formato di risposta predefinito. Usato per generare risposte di testo.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Il tipo di formato di risposta da definire. Sempre text.Valori possibili: text |
Sì |
OpenAI.TextResponseFormatConfigurationType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | textjson_schemajson_object |
OpenAI.TextResponseFormatJsonSchema
Formato di risposta schema JSON. Utilizzato per generare risposte JSON strutturate. Altre informazioni sugli output strutturati.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Descrizione | Stringa | Descrizione del formato di risposta, usato dal modello per determinare come rispondere nel formato. |
No | |
| Nome | Stringa | Il nome del formato della risposta. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64. |
Sì | |
| Schema | OpenAI.ResponseFormatJsonSchemaSchema | Lo schema per il formato di risposta, descritto come un oggetto JSON Schema. Impara qui come costruire schemi JSON. |
Sì | |
| Rigorosa | booleano o null | No | ||
| digitare | Enum | Il tipo di formato di risposta da definire. Sempre json_schema.Valori possibili: json_schema |
Sì |
OpenAI.ThreadObject
Rappresenta un thread che contiene messaggi.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| created_at | Intero | Il timestamp Unix (in pochi secondi) indica quando il thread è stato creato. | Sì | |
| Id | Stringa | L'identificatore, che può essere consultato negli endpoint API. | Sì | |
| Metadati | OpenAI.Metadata o Null | Sì | ||
| Oggetto | Enum | Il tipo di oggetto, che è sempre thread.Valori possibili: thread |
Sì | |
| tool_resources | OpenAI.ThreadObjectToolResources o null | Sì |
OpenAI.ThreadObjectToolResources
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| code_interpreter | OpenAI.ThreadObjectToolResourcesCodeInterpreter | No | ||
| file_search | OpenAI.ThreadObjectToolResourcesFileSearch | No |
OpenAI.ThreadObjectToolResourcesCodeInterpreter
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| file_ids | matrice di stringhe | No |
OpenAI.ThreadObjectToolResourcesFileSearch
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| vector_store_ids | matrice di stringhe | No |
OpenAI.TokenLimits
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| post_instructions | Intero | Vincoli: min: 0 | No |
OpenAI.Tool
Strumento che può essere usato per generare una risposta.
Discriminare per OpenAI.Tool
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
code_interpreter |
OpenAI.CodeInterpreterTool |
function |
OpenAI.FunctionTool |
file_search |
OpenAI.FileSearchTool |
computer_use_preview |
OpenAI.ComputerUsePreviewTool |
web_search |
OpenAI.WebSearchTool |
mcp |
OpenAI.MCPTool |
image_generation |
OpenAI.ImageGenTool |
local_shell |
OpenAI.LocalShellToolParam |
shell |
OpenAI.FunctionShellToolParam |
custom |
OpenAI.CustomToolParam |
web_search_preview |
OpenAI.WebSearchPreviewTool |
apply_patch |
OpenAI.ApplyPatchToolParam |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.ToolType | Sì |
OpenAI.ToolChoiceAllowed
Vincola gli strumenti disponibili al modello a un set predefinito.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Modalità | Enum | Vincola gli strumenti disponibili al modello a un set predefinito.auto consente al modello di scegliere tra gli strumenti consentiti e generare unMessaggio. required richiede al modello di chiamare uno o più degli strumenti consentiti.Valori possibili: auto, required |
Sì | |
| Strumenti | matrice di oggetti | Elenco di definizioni degli strumenti che il modello deve essere autorizzato a chiamare. Per l'API Risposte, l'elenco delle definizioni degli strumenti potrebbe essere simile al seguente: json<br> [<br> { "type": "function", "name": "get_weather" },<br> { "type": "mcp", "server_label": "deepwiki" },<br> { "type": "image_generation" }<br> ]<br> |
Sì | |
| digitare | Enum | Tipo di configurazione dello strumento consentito. Sempre allowed_tools.Valori possibili: allowed_tools |
Sì |
OpenAI.ToolChoiceCodeInterpreter
Indica che il modello dovrebbe utilizzare uno strumento integrato per generare una risposta. Altre informazioni sugli strumenti predefiniti.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Valori possibili: code_interpreter |
Sì |
OpenAI.ToolChoiceComputerUsePreview
Indica che il modello dovrebbe utilizzare uno strumento integrato per generare una risposta. Altre informazioni sugli strumenti predefiniti.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Valori possibili: computer_use_preview |
Sì |
OpenAI.ToolChoiceCustom
Usare questa opzione per forzare il modello a chiamare uno strumento personalizzato specifico.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Nome | Stringa | Nome dello strumento personalizzato da chiamare. | Sì | |
| digitare | Enum | Per la chiamata a uno strumento personalizzato, il tipo è sempre custom.Valori possibili: custom |
Sì |
OpenAI.ToolChoiceFileSearch
Indica che il modello dovrebbe utilizzare uno strumento integrato per generare una risposta. Altre informazioni sugli strumenti predefiniti.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Valori possibili: file_search |
Sì |
OpenAI.ToolChoiceFunction
Usa questa opzione per forzare il modello a chiamare una funzione specifica.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Nome | Stringa | Il nome della funzione da chiamare. | Sì | |
| digitare | Enum | Per la chiamata di funzioni, il tipo è sempre function.Valori possibili: function |
Sì |
OpenAI.ToolChoiceImageGeneration
Indica che il modello dovrebbe utilizzare uno strumento integrato per generare una risposta. Altre informazioni sugli strumenti predefiniti.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Valori possibili: image_generation |
Sì |
OpenAI.ToolChoiceMCP
Usare questa opzione per forzare il modello a chiamare uno strumento specifico in un server MCP remoto.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Nome | stringa o null | No | ||
| server_label | Stringa | Etichetta del server MCP da usare. | Sì | |
| digitare | Enum | Per gli strumenti MCP, il tipo è sempre mcp.Valori possibili: mcp |
Sì |
OpenAI.ToolChoiceOptions
Controlla quale (se presente) strumento viene chiamato dal modello.
none significa che il modello non chiamerà nessuno strumento ma genera invece un messaggio.
auto significa che il modello può scegliere tra generare un messaggio o chiamare uno o più strumenti.
required significa che il modello deve chiamare uno o più strumenti.
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | noneautorequired |
OpenAI.ToolChoiceParam
Come il modello dovrebbe selezionare quale strumento (o strumenti) utilizzare per generare una risposta. Consulta il tools parametro per vedere come specificare quali strumenti il modello può chiamare.
Discriminante per OpenAI.ToolChoiceParam
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Valore del tipo | Schema |
|---|---|
allowed_tools |
OpenAI.ToolChoiceAllowed |
mcp |
OpenAI.ToolChoiceMCP |
custom |
OpenAI.ToolChoiceCustom |
apply_patch |
OpenAI.SpecificApplyPatchParam |
shell |
OpenAI.SpecificFunctionShellParam |
file_search |
OpenAI.ToolChoiceFileSearch |
web_search_preview |
OpenAI.ToolChoiceWebSearchPreview |
computer_use_preview |
OpenAI.ToolChoiceComputerUsePreview |
web_search_preview_2025_03_11 |
OpenAI.ToolChoiceWebSearchPreview20250311 |
image_generation |
OpenAI.ToolChoiceImageGeneration |
code_interpreter |
OpenAI.ToolChoiceCodeInterpreter |
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | OpenAI.ToolChoiceParamType | Sì |
OpenAI.ToolChoiceParamType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | allowed_toolsfunctionmcpcustomapply_patchshellfile_searchweb_search_previewcomputer_use_previewweb_search_preview_2025_03_11image_generationcode_interpreter |
OpenAI.ToolChoiceWebSearchPreview
Nota: web_search non è ancora disponibile tramite Azure OpenAI.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Valori possibili: web_search_preview |
Sì |
OpenAI.ToolChoiceWebSearchPreview20250311
Indica che il modello dovrebbe utilizzare uno strumento integrato per generare una risposta. Altre informazioni sugli strumenti predefiniti.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Valori possibili: web_search_preview_2025_03_11 |
Sì |
OpenAI.ToolType
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | functionfile_searchcomputer_use_previewweb_searchmcpcode_interpreterimage_generationlocal_shellshellcustomweb_search_previewapply_patch |
OpenAI.ToolsArray
Una serie di strumenti che il modello può chiamare mentre genera una risposta. Puoi specificare quale strumento usare impostando il tool_choice parametro.
Sono supportate le categorie di strumenti seguenti:
- Strumenti predefiniti: strumenti forniti da OpenAI che estendono le funzionalità del modello, ad esempio la ricerca Web o la ricerca di file. Altre informazioni sugli strumenti predefiniti.
- Strumenti MCP: integrazioni con sistemi di terze parti tramite server MCP personalizzati o connettori predefiniti, ad esempio Google Drive e SharePoint. Altre informazioni sugli strumenti MCP.
- Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente, consentendo al modello di chiamare il proprio codice con argomenti e output fortemente tipizzato. Altre informazioni sulla chiamata alle funzioni. È anche possibile usare strumenti personalizzati per chiamare il proprio codice.
Matrice di: OpenAI.Tool
OpenAI.TopLogProb
Probabilità di log principale di un token.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Byte | matrice di numeri interi | Sì | ||
| logprob | Numero | Sì | ||
| Token | Stringa | Sì |
OpenAI.TranscriptionSegment
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| avg_logprob | Numero | Logprob medio del segmento. Se il valore è inferiore a -1, considerare che i logprobs non sono riusciti. | Sì | |
| compression_ratio | Numero | Rapporto di compressione del segmento. Se il valore è maggiore di 2,4, prendere in considerazione l'errore di compressione. | Sì | |
| Fine | Numero | Ora di fine del segmento in secondi. | Sì | |
| Id | Intero | Identificatore univoco del segmento. | Sì | |
| no_speech_prob | Numero | Probabilità di nessun parlato nel segmento. Se il valore è superiore a 1,0 e è inferiore a -1, prendere in considerazione questo segmento invisibile all'utente avg_logprob . |
Sì | |
| Cercare | Intero | Offset di ricerca del segmento. | Sì | |
| Iniziare | Numero | Ora di inizio del segmento in secondi. | Sì | |
| Temperatura | Numero | Parametro Temperature usato per generare il segmento. | Sì | |
| Testo | Stringa | Contenuto di testo del segmento. | Sì | |
| Token | matrice di numeri interi | Matrice di ID token per il contenuto di testo. | Sì |
OpenAI.TranscriptionWord
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Fine | Numero | Ora di fine della parola in secondi. | Sì | |
| Iniziare | Numero | Ora di inizio della parola in secondi. | Sì | |
| Parola | Stringa | Contenuto di testo della parola. | Sì |
OpenAI.TruncationObject
Controlli su come un thread verrà troncato prima dell'esecuzione. Usa questo per controllare la finestra contestuale iniziale della run.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| last_messages | integer o null | No | ||
| digitare | Enum | La strategia di troncamento da usare per il thread. Il valore predefinito è auto. Se impostato su last_messages, il thread verrà troncato ai n messaggi più recenti nel thread. Quando impostato su auto, i messaggi al centro del thread verranno eliminati per adattarsi alla lunghezza contestuale del modello, max_prompt_tokens.Valori possibili: auto, last_messages |
Sì |
OpenAI.Type
Un'azione per scrivere un testo.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Testo | Stringa | Il testo da scrivere. | Sì | |
| digitare | Enum | Specifica il tipo di evento. Per un'azione di tipo, questa proprietà è sempre impostato su type.Valori possibili: type |
Sì |
OpenAI.UpdateConversationBody
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Metadati | OpenAI.Metadata o Null | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard. I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri. |
Sì |
OpenAI.UpdateVectorStoreFileAttributesRequest
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Attributi | OpenAI.VectorStoreFileAttributes o null | Sì |
OpenAI.UpdateVectorStoreRequest
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| expires_after | OpenAI.VectorStoreExpirationAfter | La politica di scadenza per uno store vettoriale. | No | |
| Metadati | OpenAI.Metadata o Null | No | ||
| Nome | stringa o null | Il nome del negozio vettoriale. | No |
OpenAI.UrlCitationBody
Una citazione per una risorsa web utilizzata per generare una risposta al modello.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| end_index | Intero | L'indice dell'ultimo carattere della citazione URL nel messaggio. | Sì | |
| start_index | Intero | L'indice del primo carattere della citazione URL nel messaggio. | Sì | |
| Titolo | Stringa | Il titolo della risorsa web. | Sì | |
| digitare | Enum | Il tipo della citazione URL. Sempre url_citation.Valori possibili: url_citation |
Sì | |
| Url | Stringa | L'URL della risorsa web. | Sì |
OpenAI.ValidateGraderResponse
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Selezionatore | OpenAI.GraderStringCheck o OpenAI.GraderTextSimilarity o OpenAI.GraderPython o OpenAI.GraderScoreModel o OpenAI.GraderMulti o GraderEndpoint | Grader utilizzato per il processo di ottimizzazione. | No |
OpenAI.VectorStoreExpirationAfter
La politica di scadenza per uno store vettoriale.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| ancora | Enum | Time stamp dell'ancora dopo il quale si applica la politica di scadenza. Ancoraggi supportati: last_active_at.Valori possibili: last_active_at |
Sì | |
| Giorni | Intero | Il numero di giorni dopo il tempo di ancoragga in cui lo store vettoriale scadrà. Vincoli: min: 1, max: 365 |
Sì |
OpenAI.VectorStoreFileAttributes
Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard. I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri, booleani o numeri.
Tipo: oggetto
OpenAI.VectorStoreFileBatchObject
Un lotto di file collegati a un archivio vettoriale.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| created_at | Intero | Il timestamp Unix (in pochi secondi) indicava quando i file vettoriali erano creati in lot. | Sì | |
| file_counts | OpenAI.VectorStoreFileBatchObjectFileCounts | Sì | ||
| Id | Stringa | L'identificatore, che può essere consultato negli endpoint API. | Sì | |
| Oggetto | Enum | Il tipo di oggetto, che è sempre vector_store.file_batch.Valori possibili: vector_store.files_batch |
Sì | |
| Stato | Enum | Lo stato dei file vettoriali memorizza in batch, che può essere o in_progress, completed, cancelled oppure failed.Valori possibili: in_progress, completed, cancelled, failed |
Sì | |
| vector_store_id | Stringa | ID dell'archivio vettoriale a cui è associato il file . | Sì |
OpenAI.VectorStoreFileBatchObjectFileCounts
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| annullato | Intero | Sì | ||
| Completato | Intero | Sì | ||
| Fallito | Intero | Sì | ||
| in_progress | Intero | Sì | ||
| Totale | Intero | Sì |
OpenAI.VectorStoreFileObject
Una lista di file collegati a un archivio vettoriale.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Attributi | OpenAI.VectorStoreFileAttributes o null | No | ||
| chunking_strategy | OpenAI.ChunkingStrategyResponse | Strategia usata per suddividere il file. | No | |
| created_at | Intero | Il timestamp Unix (in pochi secondi) indicato quando il file di archivio vettoriale è stato creato. | Sì | |
| Id | Stringa | L'identificatore, che può essere consultato negli endpoint API. | Sì | |
| last_error | OpenAI.VectorStoreFileObjectLastError o null | Sì | ||
| Oggetto | Enum | Il tipo di oggetto, che è sempre vector_store.file.Valori possibili: vector_store.file |
Sì | |
| Stato | Enum | Lo stato del file vettoriale store, che può essere o in_progress, completed, cancelled, o failed. Lo stato completed indica che il file di archiviazione vettoriale è pronto per l'uso.Valori possibili: in_progress, completed, cancelled, failed |
Sì | |
| usage_bytes | Intero | L'utilizzo totale della memorizzazione vettoriale in byte. Nota che questo potrebbe essere diverso dalla dimensione originale del file. | Sì | |
| vector_store_id | Stringa | ID dell'archivio vettoriale a cui è associato il file . | Sì |
OpenAI.VectorStoreFileObjectLastError
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Codice | Enum | Valori possibili: server_error, unsupported_file, invalid_file |
Sì | |
| Messaggio | Stringa | Sì |
OpenAI.VectorStoreObject
Un vettoriale storage è una raccolta di file elaborati che possono essere utilizzati dallo file_search strumento.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| created_at | Intero | Il timestamp Unix (in secondi) indicato quando è stato creato il vettoriale store. | Sì | |
| expires_after | OpenAI.VectorStoreExpirationAfter | La politica di scadenza per uno store vettoriale. | No | |
| expires_at | stringa o null | No | ||
| file_counts | OpenAI.VectorStoreObjectFileCounts | Sì | ||
| Id | Stringa | L'identificatore, che può essere consultato negli endpoint API. | Sì | |
| last_active_at | stringa o null | Sì | ||
| Metadati | OpenAI.Metadata o Null | Sì | ||
| Nome | Stringa | Il nome del negozio vettoriale. | Sì | |
| Oggetto | Enum | Il tipo di oggetto, che è sempre vector_store.Valori possibili: vector_store |
Sì | |
| Stato | Enum | Lo stato dello store vettoriale, che può essere o expired, in_progress, oppure completed. Lo stato di completed indica che lo store vettoriale è pronto all'uso.Valori possibili: expired, in_progress, completed |
Sì | |
| usage_bytes | Intero | Il numero totale di byte utilizzati dai file nello store vettoriale. | Sì |
OpenAI.VectorStoreObjectFileCounts
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| annullato | Intero | Sì | ||
| Completato | Intero | Sì | ||
| Fallito | Intero | Sì | ||
| in_progress | Intero | Sì | ||
| Totale | Intero | Sì |
OpenAI.VectorStoreSearchRequest
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Filtri | OpenAI.ComparisonFilter o OpenAI.CompoundFilter | Un filtro da applicare in base agli attributi del file. | No | |
| max_num_results | Intero | Il numero massimo di risultati da restituire. Questo numero dovrebbe essere compreso tra 1 e 50 inclusi. Vincoli: min: 1, max: 50 |
No | 10 |
| Query | stringa o matrice di stringhe | Una stringa di query per una ricerca | Sì | |
| ranking_options | OpenAI.VectorStoreSearchRequestRankingOptions | No | ||
| └* ranker | Enum | Valori possibili: none, auto, default-2024-11-15 |
No | |
| └score_threshold | Numero | Vincoli: min: 0, max: 1 | No | |
| rewrite_query | Boolean | Se riscrivere la query in linguaggio naturale per la ricerca vettoriale. | No |
OpenAI.VectorStoreSearchRequestRankingOptions
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| ranker | Enum | Valori possibili: none, auto, default-2024-11-15 |
No | |
| score_threshold | Numero | Vincoli: min: 0, max: 1 | No |
OpenAI.VectorStoreSearchResultContentObject
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Testo | Stringa | Il contenuto del testo è tornato dalla ricerca. | Sì | |
| digitare | Enum | Il tipo di contenuti. Valori possibili: text |
Sì |
OpenAI.VectorStoreSearchResultItem
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Attributi | OpenAI.VectorStoreFileAttributes o null | Sì | ||
| Contenuto | matrice di OpenAI.VectorStoreSearchResultContentObject | Blocchi di contenuto dal file. | Sì | |
| File_id | Stringa | L'ID del file di archivio vettoriale. | Sì | |
| Filename | Stringa | Il nome del file vettoriale store. | Sì | |
| Punteggio | Numero | Il punteggio di somiglianza per il risultato. Vincoli: min: 0, max: 1 |
Sì |
OpenAI.VectorStoreSearchResultsPage
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | matrice di OpenAI.VectorStoreSearchResultItem | L'elenco degli elementi dei risultati di ricerca. | Sì | |
| has_more | Boolean | Indica se ci sono altri risultati da recuperare. | Sì | |
| next_page | stringa o null | Sì | ||
| Oggetto | Enum | Il tipo oggetto, che è sempre vector_store.search_results.pageValori possibili: vector_store.search_results.page |
Sì | |
| search_query | matrice di stringhe | Sì |
OpenAI.Verbosity
Vincola il livello di dettaglio della risposta del modello. I valori inferiori generano risposte più concise, mentre i valori più elevati generano risposte più dettagliate.
I valori attualmente supportati sono low, medium, e high.
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | lowmediumhigh |
OpenAI.VoiceIdsShared
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | alloyashballadcoralechosageshimmerversemarincedar |
OpenAI.Wait
Un'azione di attesa.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Specifica il tipo di evento. Per un'azione di attesa, questa proprietà è sempre impostato su wait.Valori possibili: wait |
Sì |
OpenAI.WebSearchActionFind
Tipo di azione "find": cerca un criterio all'interno di una pagina caricata.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Modello | Stringa | Modello o testo da cercare all'interno della pagina. | Sì | |
| digitare | Enum | Tipo di azione. Valori possibili: find_in_page |
Sì | |
| Url | Stringa | URL della pagina in cui è stato cercato il modello. | Sì |
OpenAI.WebSearchActionOpenPage
Tipo di azione "open_page" - Apre un URL specifico dai risultati della ricerca.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Tipo di azione. Valori possibili: open_page |
Sì | |
| Url | Stringa | URL aperto dal modello. | Sì |
OpenAI.WebSearchActionSearch
Tipo di azione "search" - Esegue una query di ricerca Web.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Query | matrice di stringhe | Query di ricerca. | No | |
| Query | stringa (deprecata) | [DEPRECATO] Query di ricerca. | Sì | |
| Fonti | matrice di OpenAI.WebSearchActionSearchSources | Origini utilizzate nella ricerca. | No | |
| digitare | Enum | Tipo di azione. Valori possibili: search |
Sì |
OpenAI.WebSearchActionSearchSources
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| digitare | Enum | Valori possibili: url |
Sì | |
| Url | Stringa | Sì |
OpenAI.WebSearchApproximateLocation
Posizione approssimativa dell'utente.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Città | stringa o null | No | ||
| Paese | stringa o null | No | ||
| Regione | stringa o null | No | ||
| Fuso orario | stringa o null | No | ||
| digitare | Enum | Tipo di approssimazione della posizione. Sempre approximate.Valori possibili: approximate |
No |
OpenAI.WebSearchPreviewTool
Nota: web_search non è ancora disponibile tramite Azure OpenAI.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| search_context_size | OpenAI.SearchContextSize | No | ||
| digitare | Enum | Tipo dello strumento di ricerca Web. Uno di web_search_preview oppure web_search_preview_2025_03_11.Valori possibili: web_search_preview |
Sì | |
| user_location | OpenAI.ApproximateLocation o null | No |
OpenAI.WebSearchTool
Nota: web_search non è ancora disponibile tramite Azure OpenAI.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Filtri | OpenAI.WebSearchToolFilters o null | No | ||
| search_context_size | Enum | Linee guida generali per la quantità di spazio della finestra di contesto da usare per la ricerca. Uno di low, medium, oppure high.
medium è la norma predefinita.Valori possibili: low, medium, high |
No | |
| digitare | Enum | Tipo dello strumento di ricerca Web. Uno di web_search oppure web_search_2025_08_26.Valori possibili: web_search |
Sì | |
| user_location | OpenAI.WebSearchApproximateLocation o null | No |
OpenAI.WebSearchToolFilters
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| allowed_domains | matrice di stringhe o null | No |
Ordine
| Proprietà | Valore |
|---|---|
| Digitare | Stringa |
| Valori | ascdesc |
ResponseFormatJSONSchemaRequest
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| json_schema | Oggetto | Schema JSON per il formato di risposta | Sì | |
| digitare | Enum | Tipo di formato di risposta Valori possibili: json_schema |
Sì |
SpeechGenerationResponse
Rappresentazione di una risposta per un'operazione di sintesi vocale.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Audio | Stringa | Audio generato, generato nel formato di output audio richiesto. | Sì |
SpeechGenerationResponseFormat
Formati di output audio supportati per la sintesi vocale.
Questo componente può essere uno dei seguenti:
- Stringa
-
string:
mp3,opus,aac,flac,wavpcm
SpeechVoice
Voci disponibili per la sintesi vocale.
| Proprietà | Valore |
|---|---|
| Descrizione | Voci disponibili per la sintesi vocale. |
| Digitare | Stringa |
| Valori | alloyechofableonyxnovashimmer |
VideoContent
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Contenuto | Stringa | Sì |
VideoContentVariant
Varianti di asset selezionabili per il contenuto scaricato.
| Proprietà | Valore |
|---|---|
| Descrizione | Varianti di asset selezionabili per il contenuto scaricato. |
| Digitare | Stringa |
| Valori | videothumbnailspritesheet |
VideoIdParameter
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| video-id | Stringa | ID del video da usare per la richiesta OpenAI di Azure. | Sì |
VideoList
Elenco dei processi di generazione di video.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| Dati | matrice di VideoResource | Elenco dei processi di generazione di video. | Sì | |
| first_id | Stringa | ID del primo video nella pagina corrente, se disponibile. | No | |
| has_more | Boolean | Flag che indica se sono disponibili più processi dopo l'elenco. | Sì | |
| last_id | Stringa | ID dell'ultimo video nella pagina corrente, se disponibile. | No | |
| Oggetto | Enum | Valori possibili: list |
Sì |
VideoResource
Informazioni strutturate che descrivono un processo video generato.
| Nome | Digitare | Descrizione | Obbligatorio | Predefinito |
|---|---|---|---|---|
| completed_at | Intero | Timestamp Unix (secondi) per il completamento del processo, se completato. | No | |
| created_at | Intero | Timestamp Unix (secondi) per il momento in cui è stato creato il processo. | Sì | |
| Errore | Errore | No | ||
| Codice └++ | Stringa | Sì | ||
| └* messaggio | Stringa | Sì | ||
| expires_at | Intero | Timestamp Unix (secondi) per la scadenza della generazione di video (e verrà eliminato). | No | |
| Id | Stringa | Identificatore univoco per il processo video. | Sì | |
| Modello | Stringa | Distribuzione del modello di generazione video che ha prodotto il processo. | Sì | |
| Oggetto | Stringa | Il tipo di oggetto, che è sempre video. |
Sì | |
| Progresso | Intero | Percentuale di completamento approssimativa per l'attività di generazione. | Sì | |
| remixed_from_video_id | Stringa | Identificatore del video di origine se questo video è un remix. | No | |
| Secondi | VideoSecondi | Durate di clip supportate, misurate in secondi. | Sì | |
| Dimensione | VideoSize | Dimensioni di output formattate come {width}x{height}. |
Sì | |
| Stato | VideoStatus | Stato del ciclo di vita di un video generato. | Sì |
VideoSecondi
Durate di clip supportate, misurate in secondi.
| Proprietà | Valore |
|---|---|
| Descrizione | Durate di clip supportate, misurate in secondi. |
| Digitare | Stringa |
| Valori | 4812 |
VideoSize
Dimensioni di output formattate come {width}x{height}.
| Proprietà | Valore |
|---|---|
| Descrizione | Dimensioni di output formattate come {width}x{height}. |
| Digitare | Stringa |
| Valori | 720x12801280x7201024x17921792x1024 |
VideoStatus
Stato del ciclo di vita di un video generato.
| Proprietà | Valore |
|---|---|
| Descrizione | Stato del ciclo di vita di un video generato. |
| Digitare | Stringa |
| Valori | queuedin_progresscompletedfailed |