Blog & Actualités

Insights & Actualités Tech

Découvrez nos derniers articles sur le développement web, le design et les technologies digitales qui façonnent l'avenir

Recherche pour : "gpt-oss"
Effacer les filtres
GRP-Obliteration - Un seul prompt suffit pour faire tomber les garde-fous des IA

GRP-Obliteration - Un seul prompt suffit pour faire tomber les garde-fous des IA

Les garde-fous de votre IA locale, ils tiennent à quoi ? Hé bien, ils tiennent à UN seul prompt mes amis. Oui, UN SEUL ! Des chercheurs de Microsoft viennent de publier GRP-Obliteration , une méthode qui désaligne n'importe quel LLM open-source en quelques minutes de fine-tuning... et le mieux,...

Claude Code : exécution locale avec Docker Model Runner

Claude Code : exécution locale avec Docker Model Runner

Docker propose un petit tutoriel sur comment exécuter Claude Code en utilisant Docker Model Runner pour un LLM local. Pour ce rappel, cet outil permet d'exécuter des LLM sur sa machine, un peu comme Ollama. 1 / installer Claude Code (Linux, macOS) : curl -fsSL https://claude.ai/install.sh | bash2 /...

Claude Code : utiliser les LLM d'Ollama

Claude Code : utiliser les LLM d'Ollama

Tu aimes Claude Code mais tu ne veux pas payer le plan à 17 $ / mois et le plan gratuit n'est pas assez étendu et tu veux être totalement local. Ollama vient à ton aide. Avec la version 0.14.0, et plus récente, Ollama est désormais compatible avec l'API Message d'Anthropic et Claude Code. On peut...

Nemotron 3 - Nvidia débarque dans l'open source et crache du token comme jamais

Nemotron 3 - Nvidia débarque dans l'open source et crache du token comme jamais

Vous voulez faire tourner un modèle d'IA en local sans avoir besoin d'un serveur de la NASA ? Eh bien Nvidia vient de lâcher une bombe avec Nemotron 3, une famille de modèles open source plutôt impressionnant et surtout, ils ont publié leurs données d'entraînement afin de jouer la transparence...

Ollama : une app pour faire tourner des LLM localement et nouvelle version

Ollama : une app pour faire tourner des LLM localement et nouvelle version

En juillet dernier, nous avions présenté l'application Ollama. Cette app permet d'exécuter des LLM localement. Pour rappel : Ollama met d'abord en place un serveur pour ensuite récupérer le LLM et l'exécuter localement. Il faut donc prévoir la place nécessaire. Ollama est disponible sur macOS et...

L'API qui manquait à Ollama pour concurrencer ChatGPT est enfin là !!

L'API qui manquait à Ollama pour concurrencer ChatGPT est enfin là !!

Ce qui est super relou avec les IA qu’on peut utiliser en local, genre avec Ollama, c’est que si on lui demande des infos un peu trop récente, ça nous sort des vieux chiffres de 2023 avec la confiance d’un vendeur de voitures d’occasion. Bon bah ça, c’est fini...

LocalSite - Créez des sites web avec l'IA 100% en local sur votre machine

LocalSite - Créez des sites web avec l'IA 100% en local sur votre machine

Y’a quelques mois, je me suis amusé à reprendre le projet DeepSite d’Enzostvs et à le transformer complètement pour fonctionner en 100% local. J’ai baptisé ça LocalSite , et ça permet en gros de générer des pages web ou des éléments HTML / CSS / JS à l’aide d’une IA...

PromptLock - Le premier ransomware à utiliser une IA 100% locale

PromptLock - Le premier ransomware à utiliser une IA 100% locale

Je pense qu’on n’est pas encore vraiment prêt pour ces conneries… De quelles conneries je parle ? Et bien par exemple d’un ransomware qui réfléchit, qui s’adapte, et qui génère même ses propres attaques en temps réel ! Oui, Terminator mais sans muscles, et ce...

VulnHuntr - L'IA qui trouve des failles 0day dans votre code Python

VulnHuntr - L'IA qui trouve des failles 0day dans votre code Python

Bon, là on va parler d’un truc qui va faire trembler pas mal de développeurs. VulnHuntr, c’est le nouveau joujou de Protect AI qui utilise l’intelligence artificielle pour dénicher des vulnérabilités 0-day dans du code Python. Et quand je dis dénicher, c’est pas pour rigoler...

Gpt-oss : six ans après GPT-2, OpenAI dégaine ses modèles « open weight »

Gpt-oss : six ans après GPT-2, OpenAI dégaine ses modèles « open weight »

Le fournisseur de LLM dit vouloir rendre accessibles ses technologies au plus grand nombre, notamment pour déployer des applications agentiques. Mais son véritable objectif scientifique est d’améliorer la surveillance des raisonnements des modèles gpt-oss. Cela ne veut pas dire qu’OpenAI livre ses...

GPT-OSS : LLM d'OpenAI open source et capable de fonctionner localement

GPT-OSS : LLM d'OpenAI open source et capable de fonctionner localement

OpenAI annonce GPT-OSS, un LLM open source sous licence Apache 2. Il s'agit d'une annonce importante pour OpenAI car il s'agit du premier LLM ouvert depuis GPT-2. Deux modèles sont proposés : 120 milliards de paramètres et 20 milliards. GPT-OSS-120b nécessite une puissance GPU et 80 Go de RAM, le...

OpenAI has finally released open-weight language models

OpenAI has finally released open-weight language models

OpenAI has finally released its first open-weight large language models since 2019’s GPT-2. These new “gpt-oss” models are available in two different sizes and score similarly to the company’s o3-mini and o4-mini models on several benchmarks. Unlike the models available through OpenAI’s web...