S
Inteligencia Adaptativa Orzatty

Sylor AI

El hub neural del ecosistema. Un ajuste fino hiper-optimizado de Llama 3.2, ejecutándose libremente en nuestros clústeres nativos.

Iniciar Interfaz → Ver Whitepaper Oficial
3.2B
Parámetros (Base)
8,000
Tokens (Context Window)
Llama 3.2
Arquitectura Base

Construido sobre fundamentos sólidos.

Sylor no compite rehaciendo la rueda; la perfecciona. Hemos tomado la poderosa arquitectura open-weights de Meta (Llama 3.2 3.2B) y le hemos aplicado un ajuste fino riguroso (Fine-Tuning) enfocado en flujos algorítmicos, asistencia en código fuente y comprensión técnica.

Retenemos los benchmarks nativos de Llama, pero los optimizamos para respuestas directas de "piloto", libres de la censura restrictiva corporativa tradicional.

// Sylor Initialization Stack
> LoadModelWeights("sylor-3.2b-v1.safetensors")
[OK] Weights loaded successfully (fp16)
> AllocateKV_Cache({ size: 8192 })
[OK] 8K Context Window ready
> PingInferenceNode("us-east-miami")
[OK] Miami Node Responding. Latency: 14ms
System ready. Awaiting prompt...

Infraestructura & Roadmap

Completado

Infraestructura Soberana en Miami

El modelo se ejecuta nativamente en clústeres privados ubicados en Miami, EEUU. Esto nos garantiza un SLA del 99.9% y una latencia imperceptible para Venezuela y toda Latinoamérica.

Completado

Interfaz Gráfica Dedicada

La aplicación nativa (React/CSS Vanilla) corriendo en Cloudflare Pages, con login unificado a través de Orzatty Account.

Próximamente

API en OpenRouter

Sylor se está preparando para su listado público en OpenRouter, permitiendo a desarrolladores de todo el mundo consumir nuestros inferencia Llama optimizada vía API.

Próximamente

Open Source Release

Actualmente el modelo compilado es propietario. En una fase posterior, los pesos (safetensors) del fine-tune serán liberados públicamente a la comunidad open-source.