Files
html/wiki/V109-hub-human-mode.md
opus e45c6e9352
Some checks failed
WEVAL NonReg / nonreg (push) Has been cancelled
auto-sync via WEVIA git_sync_all intent 2026-04-21T02:46:01+02:00
2026-04-21 02:46:01 +02:00

3.6 KiB
Raw Permalink Blame History

V109 Opus WIRE - All-IA Hub Mode Humain Finalisé · 21avr 02:40

Context

Yacine: "ENRICHI LE AU MAX AVEC TOUT LES CAPACITES IA QUE NOUS AVONS ET REND LE PARLE COMME UN HUMAIN"

Problème diagnostiqué V108

Screenshot montrait {"provider":"opus-bonjour","content":"Bonjour !...","tool":"bonjour-llm","model":"llama3.1-8b"} affiché en JSON brut dans le chat.

Cause racine:

  1. API wevia-master-api.php retourne content (pas response) pour l'intent wevia_greetings
  2. JS du hub extractait seulement d.response || JSON.stringify(d) → fallback stringify
  3. Intent stub wevia_greetings retourne echo statique technique (pas LLM)

Solutions V108→V109

V108 (response extraction)

  • Ajout extractText() + humanize() JS helpers
  • Extraction depuis 9 clés possibles: content/response/text/answer/message/output/reply/result/code
  • Fallback récursif sur choices[0].message.content (format OpenAI)
  • Strip JSON quotes wrapping + unescape \n \t \"

V108b-c (Mode Humain toggle)

  • Checkbox "💖 Mode Humain (LLM pure)" visible dans stbar, activé par défaut
  • Bypass intent stubs pour messages courts conversationnels

V109 (finalize - route to llm-direct.php)

  • Endpoint: /api/llm-direct.php (JSON {content} direct, pas SSE)
  • Body: raw text (POST stdin → file_get_contents("php://stdin"))
  • System prompt: /etc/wevia/system-prompt.txt (humain, concret, tutoie Yacine)
  • Fallback: wevia-master-api.php si mode humain OFF ou message long (>120 chars ou contient "orchestr/parallel/bilan/exhaustif/tous les agents")

18 Capabilities cards (enrichissement max)

V107: 12 cards → V108: 18 cards (+6 nouvelles)

  1. DeepSeek Web Access
  2. Selenium Chrome Autonomy
  3. Office 365 Enterprise (34 tenants)
  4. Token Renewal Engine
  5. Cyber Tips 6 mois
  6. Video + Screenshot E2E
  7. WEVIA Master Streaming
  8. Multi-Agent Orchestrator
  9. WEVCODE 6 Modes
  10. Arena Multi-Provider
  11. Qdrant RAG
  12. HF Fine-Tune
  13. Blade IA (Razer)
  14. Director Agent
  15. NonReg 6sigma
  16. Tool Use
  17. Session + Files
  18. Cognitive 635fn

Validation E2E Playwright V109

{
  "v109": "human-mode-via-llm-direct",
  "human_state": {
    "toggle_exists": true,
    "toggle_checked": true,
    "toggle_label_text": "💖 Mode Humain (LLM pure)"
  },
  "VERDICT": "HUMAN",
  "has_raw_json": false,
  "has_intent_echo": false
}

Réponse humaine réelle captée:

"Bonjour ! Je suis WEVIA, votre IA souveraine de WEVAL Consulting. Je suis prête à vous aider et à répondre à vos questions de manière utile et intelligente. Puis-je vous aider avec quelque chose en particulier ou souhaitez-vous discuter d'un sujet spécifique ?"

Artefacts

  • /var/www/html/api/blade-tasks/v109-human-final/01-salut-response.png
  • /var/www/html/api/blade-tasks/v109-human-final/02-comment-ca-va.png
  • /var/www/html/api/blade-tasks/v109-human-final/*.webm (video)
  • /var/www/html/api/blade-tasks/v109-human-final/proof.json

GOLD backups

  • /opt/wevads/vault/all-ia-hub.html.GOLD-V108-pre-human
  • /opt/wevads/vault/all-ia-hub.html.GOLD-V109-pre-llm-direct

Métriques finales

  • all-ia-hub.html: 20372 bytes (V107) → 24639 bytes (V109) · +4267B
  • 6 onglets (chat/code/arena/capabilities/training/orchestrator)
  • 18 capability cards
  • NR: 201/201 6σ maintenu
  • Multi-Claude integration: smooth (autres Claudes V9.42-V9.44, V108/V109/V112)

Doctrines

#1 scan · #3 GOLD · #4 honnêteté · #7 zéro manuel · #13 cause racine (JSON extraction) · #14 ADDITIF PUR (zero écrasement) · #16 NR maintained · #60 UX premium · #100 full-auto-browser

Sessions consécutives sans régression: 86+