Natvps.id – Después de discutir la instalación N8N y GPT4Free en el artículo anterior, podemos integrar tanto el proceso de automatización utilizando AI. Por ejemplo, si desea hacer un chatbot de WhatsApp basado en el webhook, podemos usar N8N para realizar el activador automático, luego acceda a AI a través de GPT4Free.
Sin embargo, como el objetivo inicial como una conexión con varios proveedores, GPT4Free no puede usarse directamente como punto final Para el cliente de IA. Por lo tanto, debemos usar apoderado como LLM-Proxy Poder usar un proveedor y modelos específicos. Para GPT4Free, hay un apoderado que podemos usar, a saber N8n-g4f-proxy (
Revise los proveedores disponibles
Antes de que podamos usar un proxy, debemos elegir el proveedor que usaremos. Este proveedor luego determinará la lista de modelos LLM que podemos usar en N8N.
Para comprobarlo, abra GPT4Free Anda> / V1 / Proveedores. Por ejemplo, si su dominio GPT4Free es ai.turatorial.mdinata.my.idEntonces la dirección se convierte en

Esta es una lista de proveedores disponibles en GPT4Free, en forma de JSON. Si tiene problemas para leerlo, úselo herramienta Como el entrenador JSON.

id es el nombre del proveedor que podemos usar. Seleccione uno de los proveedores disponibles. Por ejemplo, Polinizonsi.

Consejo: ¡Encuentra un proveedor gratuito!
Guarde la ID de este proveedor porque se usará más adelante.
Actualizar Docker compone GPT4Free
Tenemos que agregar apoderado Es como servicio Solo a la configuración compuesta compone GPT4Free.
Si sigue el artículo anterior sobre la instalación de GPT4Free en NAT VPS, el archivo compuesto Docker se encuentra en gpt4free/docker-compose.yml. Establecer si usa una ubicación diferente.
Abra el archivo compone Docker usando un editor de texto como Nano:
cd gpt4free/ nano docker-compose.yml
llm-proxy-openai:
image: ghcr.io/korotovsky/n8n-g4f-proxy:latest
ports:
- "12434:3000" # port 12434 become accessible on host via host.docker.internal:12434 in the credentials popup
environment:
- LLM_PROXY_PROVIDER=PollinationsAI # choose the provider from /v1/providers
- LLM_UPSTREAM= Cambiar Polinizonsi De acuerdo con su proveedor de elección anterior.

Guarde el archivo con CTRL-X, Y e Enter.
Reiniciar compone de Docker:
docker compose down docker compose up -d

Configuración de la entrega de puertos
Para facilitar la instalación, podemos usar un puerto en lugar de usar un dominio proxy invertido. Pero eres libre si siempre quieres usar un dominio.
Cree una nueva transferencia de puerto que conduzca al puerto 12434 En VPS. Ejemplo:

Intente acceder al puerto delantero para probar si el proxy funciona. Ejemplo:

Si aparece arriba, el proxy se está ejecutando.
Integración con N8N
El proxy LLM ahora se puede usar como Punto final de la API Para Opadai En n8n.

Complete la información de identificación
En pestañas Parámetrosparte Información de identificaciónhacer clic Crear nueva información de identificación Para agregar información de identificación proxy.

- Clave API: complete los arreglos:
- Si usa un proveedor pagado Como OpenAi: llena tu API de llave
- Si usa un proveedor gratis Al igual que los polinizantes: llene cualquier cosa porque no requiere una llave de fuego.
- URL básica: complete su dirección de puerto + “/ v1”. Ejemplo: http://195.154.94.231:19013/v1.

Modelos seleccionados
Si una opción Modelo En N8N como este, debe ingresar manualmente el nombre del modelo.

Abierto Su dirección portuaria + + ” / V1 / modelos”. Ejemplo: http://195.154.94.231:19013/v1/models.


Por ejemplo, GPT-4-MINI.

En n8n, columna ModeloConvidar a Por identificaciónLuego llene la ID con el modelo deseado.

Cambiar otras configuraciones de acuerdo con las necesidades de automatización, luego probar un paso para probar si la respuesta de IA se obtuvo con éxito.

Gentong Pos
Review Film
Berita Terkini
Berita Terkini
Berita Terkini
review anime
Gaming Center
Berita Olahraga
Lowongan Kerja
Berita Terkini
Berita Terbaru
Berita Teknologi
Seputar Teknologi
Berita Politik
Resep Masakan
Pendidikan