3.6 KiB
V109 Opus WIRE - All-IA Hub Mode Humain Finalisé · 21avr 02:40
Context
Yacine: "ENRICHI LE AU MAX AVEC TOUT LES CAPACITES IA QUE NOUS AVONS ET REND LE PARLE COMME UN HUMAIN"
Problème diagnostiqué V108
Screenshot montrait {"provider":"opus-bonjour","content":"Bonjour !...","tool":"bonjour-llm","model":"llama3.1-8b"} affiché en JSON brut dans le chat.
Cause racine:
- API
wevia-master-api.phpretournecontent(pasresponse) pour l'intentwevia_greetings - JS du hub extractait seulement
d.response || JSON.stringify(d)→ fallback stringify - Intent stub
wevia_greetingsretourne echo statique technique (pas LLM)
Solutions V108→V109
V108 (response extraction)
- Ajout
extractText()+humanize()JS helpers - Extraction depuis 9 clés possibles: content/response/text/answer/message/output/reply/result/code
- Fallback récursif sur choices[0].message.content (format OpenAI)
- Strip JSON quotes wrapping + unescape \n \t \"
V108b-c (Mode Humain toggle)
- Checkbox "💖 Mode Humain (LLM pure)" visible dans stbar, activé par défaut
- Bypass intent stubs pour messages courts conversationnels
V109 (finalize - route to llm-direct.php)
- Endpoint:
/api/llm-direct.php(JSON{content}direct, pas SSE) - Body: raw text (POST stdin →
file_get_contents("php://stdin")) - System prompt:
/etc/wevia/system-prompt.txt(humain, concret, tutoie Yacine) - Fallback:
wevia-master-api.phpsi mode humain OFF ou message long (>120 chars ou contient "orchestr/parallel/bilan/exhaustif/tous les agents")
18 Capabilities cards (enrichissement max)
V107: 12 cards → V108: 18 cards (+6 nouvelles)
- DeepSeek Web Access
- Selenium Chrome Autonomy
- Office 365 Enterprise (34 tenants)
- Token Renewal Engine
- Cyber Tips 6 mois
- Video + Screenshot E2E
- WEVIA Master Streaming
- Multi-Agent Orchestrator
- WEVCODE 6 Modes
- Arena Multi-Provider
- Qdrant RAG
- HF Fine-Tune
- Blade IA (Razer)
- Director Agent
- NonReg 6sigma
- Tool Use
- Session + Files
- Cognitive 635fn
Validation E2E Playwright V109
{
"v109": "human-mode-via-llm-direct",
"human_state": {
"toggle_exists": true,
"toggle_checked": true,
"toggle_label_text": "💖 Mode Humain (LLM pure)"
},
"VERDICT": "HUMAN",
"has_raw_json": false,
"has_intent_echo": false
}
Réponse humaine réelle captée:
"Bonjour ! Je suis WEVIA, votre IA souveraine de WEVAL Consulting. Je suis prête à vous aider et à répondre à vos questions de manière utile et intelligente. Puis-je vous aider avec quelque chose en particulier ou souhaitez-vous discuter d'un sujet spécifique ?"
Artefacts
/var/www/html/api/blade-tasks/v109-human-final/01-salut-response.png/var/www/html/api/blade-tasks/v109-human-final/02-comment-ca-va.png/var/www/html/api/blade-tasks/v109-human-final/*.webm(video)/var/www/html/api/blade-tasks/v109-human-final/proof.json
GOLD backups
/opt/wevads/vault/all-ia-hub.html.GOLD-V108-pre-human/opt/wevads/vault/all-ia-hub.html.GOLD-V109-pre-llm-direct
Métriques finales
- all-ia-hub.html: 20372 bytes (V107) → 24639 bytes (V109) · +4267B
- 6 onglets (chat/code/arena/capabilities/training/orchestrator)
- 18 capability cards
- NR: 201/201 6σ maintenu
- Multi-Claude integration: smooth (autres Claudes V9.42-V9.44, V108/V109/V112)
Doctrines
#1 scan · #3 GOLD · #4 honnêteté · #7 zéro manuel · #13 cause racine (JSON extraction) · #14 ADDITIF PUR (zero écrasement) · #16 NR maintained · #60 UX premium · #100 full-auto-browser