Add o1 and fix some mistakes

This commit is contained in:
Kwaroran
2024-12-18 03:26:02 +09:00
parent 25cd5af074
commit 5df9e68bae
9 changed files with 233 additions and 77 deletions

View File

@@ -14,7 +14,8 @@ export enum LLMFlags{
requiresAlternateRole,
mustStartWithUserInput,
poolSupported,
hasVideoInput
hasVideoInput,
OAICompletionTokens
}
export enum LLMProvider{
@@ -409,7 +410,7 @@ export const LLMModels: LLMModel[] = [
flags: [
LLMFlags.hasImageInput,
LLMFlags.hasFullSystemPrompt,
LLMFlags.hasStreaming
LLMFlags.hasStreaming,
],
parameters: OpenAIParameters,
tokenizer: LLMTokenizer.tiktokenO200Base
@@ -421,8 +422,8 @@ export const LLMModels: LLMModel[] = [
provider: LLMProvider.OpenAI,
format: LLMFormat.OpenAICompatible,
flags: [
LLMFlags.hasFullSystemPrompt,
LLMFlags.hasStreaming
LLMFlags.hasStreaming,
LLMFlags.OAICompletionTokens
],
parameters: OpenAIParameters,
tokenizer: LLMTokenizer.tiktokenO200Base
@@ -434,8 +435,23 @@ export const LLMModels: LLMModel[] = [
provider: LLMProvider.OpenAI,
format: LLMFormat.OpenAICompatible,
flags: [
LLMFlags.hasStreaming,
LLMFlags.OAICompletionTokens
],
parameters: OpenAIParameters,
tokenizer: LLMTokenizer.tiktokenO200Base
},
{
id: 'o1',
internalID: 'o1',
name: 'o1',
provider: LLMProvider.OpenAI,
format: LLMFormat.OpenAICompatible,
flags: [
LLMFlags.hasStreaming,
LLMFlags.OAICompletionTokens,
LLMFlags.hasFullSystemPrompt,
LLMFlags.hasStreaming
LLMFlags.hasImageInput
],
parameters: OpenAIParameters,
tokenizer: LLMTokenizer.tiktokenO200Base