-
Compteur de contenus
28 847 -
Inscription
-
Dernière visite
-
Jours gagnés
945
Ldfa a gagné pour la dernière fois le 13 janvier
Ldfa a eu le contenu le plus aimé !
À propos de Ldfa

- Date de naissance 05/08/1960
Champs précédents
-
Configuration
Windows 11 & Maxthon 6 dernière version
Méthodes de contact
-
URL du site Web
http://www.maxthon-fr.com
-
ICQ
0
Informations sur le profil
-
Genre
Homme
-
Localisation
Ardèche
-
Intérêts
Informatique et communication.
Ldfa's Achievements
-
durée de lecture : 10 minAndriy Onufriyenko/Getty Images Recevez une sélection de conseils stratégiques et d'astuces concrètes chaque semaine dans votre boîte mail avec notre newsletter Guides pratiques. En savoir plus sur l’utilisation des données personnelles De plus en plus de chatbots d'IA proposent désormais une option de recherche approfondie, grâce à laquelle ils peuvent étudier un sujet pour vous. Agissant comme des agents autonomes d'IA, les bots navigueront sur le Web à votre place, trouveront les bonnes sources en ligne et vous présenteront ensuite un rapport détaillé basé sur leurs conclusions. L'objectif est de vous faire gagner du temps en vous épargnant la consultation de dizaines ou de centaines de sites web. La recherche approfondie devient rapidement une fonction puissante dans une multitude de services IA. Vous la trouverez dans OpenAI's ChatGPT, Google Gemini, Perplexity AI et même xAI's Grok. Microsoft a introduit un type de recherche approfondie avec deux agents d'IA, Researcher et Analyst ; cependant, ils nécessitent une licence Microsoft 365 Copilot avec un abonnement Enterprise ou Business, et ne sont donc pas encore disponibles pour l'utilisateur Copilot moyen. Il s'agit certainement d'une fonctionnalité utile. Mais comment les différents services d'IA se comportent-ils face à ce défi ? Pour répondre à cette question, j'ai essayé Deep Research (recherche approfondie) sur ChatGPT, Gemini, Perplexity AI et Grok. J'ai soumis la même requête à chacun d'entre eux, en leur demandant d'"explorer la façon dont le voyage dans le temps est représenté dans les films et à la télévision et ce qu'il révèle de nos valeurs, de nos peurs et de nos désirs". Voici comment fonctionne le mode de recherche de chaque IA et comment chacune a traité mon sujet. ChatGPT ChatGPT d'OpenAI propose deux versions différentes de Deep Research : la version complète et une version allégée. La version complète fournit un rapport détaillé et approfondi mais peut prendre jusqu'à 30 minutes pour trouver les meilleures sources et présenter ses résultats. La version allégée fournit un rapport beaucoup plus court et moins approfondi, mais ne prend généralement que quelques minutes. La version disponible et le nombre de requêtes que vous pouvez soumettre dépendent de votre abonnement. Les utilisateurs de ChatGPT Plus, Team et Edu reçoivent 25 requêtes par mois (10 complètes et 15 légères), les utilisateurs de Enterprise reçoivent 10 requêtes (toutes complètes), les utilisateurs de Pro reçoivent 250 requêtes (125 complètes et 125 légères), et les utilisateurs gratuits reçoivent 5 requêtes (toutes légères). Une fois que vous avez atteint votre limite pour la version complète de Deep Research, vos requêtes passent automatiquement à la version allégée. Que vous utilisiez la version complète ou la version allégée, la procédure est la même. Rendez-vous sur le site Web de ChatGPT ou ouvrez l'application pour iOS ou Android. Vous pouvez également utiliser l'application de bureau pour Windows ou macOS. Saisissez ou énoncez votre requête à l'invite, sélectionnez le bouton de recherche approfondie, puis soumettez votre demande. Si la version complète est active, préparez-vous à attendre un certain temps avant d'obtenir une réponse. Si c'est la version allégée qui est en jeu, vous n'aurez pas à attendre aussi longtemps. Capture d'écran par Lance Whitney/ZDNET J'ai soumis ma question sur le thème des voyages dans le temps au cinéma et à la télévision à la fois à la version complète Deep Research et à la version allégée , en utilisant mon abonnement Plus dans le premier cas et un compte gratuit dans le second. Les deux versions ont utilisé le modèle GPT-4o. Les deux versions m'ont également demandé de préciser le type d'analyse que je souhaitais, par exemple de choisir entre une approche thématique et une approche plus historique, et d'inclure uniquement les films et émissions de télévision classiques ou également les films et émissions de télévision modernes. La version complète a pris environ 17 minutes pour effectuer les recherches sur le Web et compiler les résultats, mais elle a fourni un rapport détaillé et approfondi avec plusieurs exemples et un tableau utile des émissions de télévision et des films. La version allégée n'a pris qu'environ huit minutes du début à la fin, mais elle a fourni un rapport plus court et beaucoup moins approfondi, une version amincie du rapport complet. Les deux rapports traitent de mon sujet et sont intéressants à lire, mais c'est la version complète de Deep Research qui l'emporte pour sa rigueur. Capture d'écran par Lance Whitney/ZDNET Google Gemini Le mode Deep Research de Gemini est disponible pour les abonnés et les utilisateurs non payants. Les abonnés reçoivent généralement 20 requêtes par jour, mais ce nombre peut varier. Les utilisateurs non payants sont limités à 5 requêtes par mois. Pour l'essayer, rendez-vous sur le site Web de Gemini ou installez l'application mobile pour iOS ou Android. Pour activer la recherche approfondie, cliquez sur le menu déroulant en haut à gauche qui répertorie le modèle actuel. Les abonnés peuvent choisir entre 2.0 Flash, 2.5 Pro (expérimental) et Deep Research avec 2.5 Pro. Les utilisateurs non payants peuvent sélectionner 2.0 Flash ou Deep Research. Après avoir choisi le modèle que vous souhaitez, le bouton de recherche approfondie doit apparaître sous l'invite. Saisissez votre question à l'invite, sélectionnez le bouton de recherche approfondie s'il n'est pas déjà en surbrillance, puis envoyez votre demande. Capture d'écran par Lance Whitney/ZDNET Après avoir soumis ma requête sur le voyage dans le temps, le mode recherche approfondie de Gemini a rapidement généré une ébauche de la façon dont il prévoyait d'aborder mon sujet, que je pouvais modifier ou approuver telle quelle. J'ai donné mon accord et Gemini s'est mis à naviguer sur le Web pour effectuer ses recherches. L'IA m'a tenu informé à chaque étape, en m'indiquant les actions qu'elle effectuait, les sites Web qu'elle consultait et la progression du rapport. L'ensemble du processus a pris environ 10 minutes. Le rapport qui en a résulté était assez approfondi, complet et long. J'ai aimé le tableau inclus avec des exemples de films mentionnés. Le style d'écriture de Gemini était plus savant que celui de ChatGPT, qui était moins formel et plus agréable à lire. Mais Gemini s'est montré à la hauteur de la tâche. Capture d'écran par Lance Whitney/ZDNET Perplexité AI Le mode Deep Research de Perplexity est disponible pour les abonnés payants et les autres. Les abonnés pro reçoivent 500 requêtes par jour, tandis que les utilisateurs non payants reçoivent cinq requêtes par jour. Pour commencer, rendez-vous sur le site Web de Perplexity AI ou utilisez l'application pour iOS, Android, Windows ou macOS. À l'invite, tapez votre question, sélectionnez le bouton de recherche et soumettez votre demande. Capture d'écran par Lance Whitney/ZDNET J'ai donné au mode de recherche de Perplexity le même sujet de voyage dans le temps. Ici, l'IA m'a tenu au courant de ses progrès, en m'indiquant les sous-thèmes spécifiques qu'elle recherchait et les sites Web qu'elle analysait. Perplexity n'a mis qu'environ cinq minutes pour compiler ses résultats et présenter son rapport. Mais les résultats sont décevants! Le rapport lui-même était beaucoup plus court que ceux générés par les autres IA. Chaque thème ou élément ne faisait l'objet que de quelques paragraphes, dont la plupart étaient dépourvus d'analyse approfondie. Le rapport n'était pas mauvais en tant que lecture rapide. Cela m'a fait penser à un devoir rendu par un enfant qui voulait simplement le terminer sans y consacrer trop de temps ou d'efforts. Capture d'écran par Lance Whitney/ZDNET Grok AI Grok 3 de xAI propose deux variantes d'un mode de recherche approfondie : DeepSearch et DeeperSearch. DeepSearch examine un grand nombre de sources en ligne, bien qu'elles ne soient pas toutes utiles ou fiables. Ce mode permet également d'effectuer le travail très rapidement. DeeperSearch est une version améliorée de DeepSearch qui exploite un plus grand nombre de sources de haute qualité. Son exécution est plus longue, mais elle fournit généralement un rapport plus approfondi. Quel que soit le mode choisi, les abonnés X Premium+ bénéficient d'un nombre illimité de requêtes, tandis que les utilisateurs gratuits et de base sont limités à 10 requêtes DeepSearch par 24 heures. X propose également un plan SuperGrok à 30 $ par mois avec un accès étendu à DeepSearch et DeeperSearch. En plus d'essayer Grok 3 et DeepSearch directement dans X (alias Twitter), vous pouvez également les utiliser via la page web dédiée à Grok, l'application iOS et l'application Android. Pour essayer, tapez votre requête à l'invite de Grok, cliquez sur la flèche de téléchargement de DeepSearch et choisissez DeepSearch ou DeeperSearch. Lorsque vous êtes prêt, envoyez votre requête. Capture d'écran par Lance Whitney/ZDNET J'ai lancé la même requête de voyage dans le temps à Grok. Avec le mode DeepSearch, l'IA n'a mis qu'une minute et demie pour effectuer l'ensemble du processus, un record de vitesse. DeeperSearch a pris un peu plus de temps, soit deux minutes et demie. Compte tenu de la vitesse, je m'attendais à une réponse médiocre. Mais les résultats m'ont surpris! Dans les deux modes, Grok a fourni des rapports intéressants et instructifs, bien que brefs. La recherche comportait divers exemples, un tableau utile des émissions de télévision et des films, ainsi qu'une analyse intelligente. Pas mal du tout. Capture d'écran par Lance Whitney/ZDNET Alors, quelle est l'IA qui s'en sort le mieux ? Je dois déclarer ChatGPT vainqueur. Bien qu'elle ait mis le plus de temps à terminer le travail, son rapport était le plus complet, le plus approfondi, le mieux écrit et le plus intéressant à lire. Sinon, si vous êtes pressé, Grok vaut certainement la peine d'être essayé. Bien entendu, tout ceci n'est basé que sur une seule requête. Avec d'autres sujets, je pourrais désigner un autre champion. Mais les résultats valent la peine d'être pris en compte la prochaine fois que vous aurez besoin d'une IA pour effectuer votre propre type de recherche approfondie. Source : "ZDNet.com" Actualités Mistral AI complète encore son portefeuille de modèles avec Medium 3, un large model conciliant performances, coûts et simplification du déploiement. L’assistant Le Chat Enterprise repose sur Medium 3. Par Christophe Auffray | 09 mai 2025 Actualités La société franco-américaine Hugging Face a dévoilé cette semaine Open Computer Agent, un agent IA gratuit hébergé dans le cloud qui permet d'utiliser un LLM pour interagir avec un ordinateur. Par Louis Adam | 09 mai 2025 Actualités Le ZDNET Morning le brief de l'actu tech pour les pros tous les matins à 9h00. Transformation numérique, IA, matériel, logiciels,... ne passez pas à côté de ce qui fait la Une du secteur. Par Guillaume Serries | 09 mai 2025 Actualités Alors qu'elle s'engage à mettre en place une IA « démocratique » au bénéfice de tous, OpenAI peut-elle garantir une IA accessible à tous tout en réduisant la réglementation ? Par Radhika Rajkumar | 09 mai 2025 Guide d'achat Ce dictaphone très design permet de mieux prendre des notes vocales. Et un abonnement optionnel permet de lui faire faire efficacement transcription et résumé. Par Jack Wallen | 21 mars 2025 Guide d'achat Il aurait pu faire mieux. Mais il aurait aussi pu faire pire. Bref, c'est pas fou. Par David Gewirtz | 31 janvier 2025 Guide d'achat Si vous voulez faire de l'IA mais que vous ne voulez pas partager votre contenu ou vos informations avec un service tiers, vous pouvez toujours installer un « grand modèle de langage » sur votre ordinateur. Vous serez surpris par la simplicité de cette opération. Par Jack Wallen | 09 janvier 2025 Guide d'achat Nous avons testé au quotidien, durant trois mois, cet ordinateur équipé d’une puce Snapdragon X Elite. Quel outil de travail fantastique ! Par Moctar Kane | 07 janvier 2025 Pratique Cet outil d'intelligence artificielle est capable de répondre à des questions liées au contenu affiché par l'écran de votre appareil mobile et celui d’une page Web du navigateur Edge. Le chatbot peut ainsi être utile de diverses manières, notamment dans la recherche d'emploi. Par Lance Whitney | 02 mai 2025 Pratique Les premiers jours de codage de Copilot AI ont été marqués par un certain flottement. Mais aujourd'hui ? Ça marche vraiment bien. Par David Gewirtz | 29 avril 2025 Pratique MCP est la clé pour libérer le plein potentiel de l'IA en entreprise, dans le cloud et au-delà. Voici pourquoi. Par Steven Vaughan-Nichols | 28 avril 2025 Pratique L'IA générative et agentique peuvent nous assister dans les tâches banales de notre quotidien. Les plus malins d’entre nous en profiteront pour faire autre chose qu'une pause café. Par Mark Samuels | 23 avril 2025 Afficher l’article complet
-
durée de lecture : 16 min 2025-05-07Comment je suis passé de Firefox comme navigateur Web principal au Zen Browser. grandeur et décadence des pandas rouxLongtemps, j’ai utilisé le navigateur Web Firefox de bonne heure. Depuis mon adolescence, environ. À l’époque, parce qu’il révolutionnait les performances dans les navigateurs, face à Internet Explorer 6, permettant de naviguer à toute vitesse, avant que Google Chrome n’arrive et ne chamboule tout. Plus tard, je suis parti pour Chrome, finalement revenu pour Firefox, pour ses promesses quant à la protection de la vie privée des utilisateur·ices, son absence d’intérêts commerciaux à la direction de Mozilla. Encore plus tard, j’ai même eu la chance de travailler pour Mozilla, d’apprécier la puissance intellectuelle [1] des devs de Firefox et des autres produits de Mozilla, de pouvoir discuter avec les divers PDG, voire l’une des personnes à l’origine de l’initiative Mozilla Mitchell Baker. Mais tout n’a pas été rose tout du long. Même en tant qu’utilisateur, j’ai eu plusieurs fois des remontées acides, des grimaces de dégoût, et ce, indépendemment de mon licenciement économique en 2020 (causé par La Crise™, qui frappait fortement le monde de la publicité du fait des confinements liés au COVID19). Le rachat de Pocket a été pour moi très marquant : un produit pas open-source, qui a galéré à le devenir complètement (de mémoire, la mise à disposition du code serveur est arrivée au cours de l’année 2024, quasiment plus de 10 ans après le rachat). Pendant ce temps-là, une autre équipe en interne avait créé une liste d’articles à lire plus tard, directement intégrée dans le navigateur. Cette même équipe était en train de créer des fondations techniques très solides et une vision cohérente pour une éventuelle plateforme de cloud personnel, à une période où je rêvais d’un Nextcloud ou d’un CozyCloud pour tous·tes, et où je me racontais que Mozilla avait la possibilité de vraiment changer les choses. Si seulement nous mettions à disposition des services cloud personnels estampillés Mozilla, absolument tout libres, infogérés par Mozilla, nous aurions même un angle business possible derrière ça : fournir quelques méga- ou giga-octets de stockage gratuit, puis faire payer les suivants. Mais d’autres décisions techniques et organisationnelles m’ont également marqué. Les virages et détours au sujet de Firefox OS, qui a finalement vécu sa meilleure vie une fois extirpé de Mozilla. Le choix de désinvestir dans Rust et Servo (un moteur de navigateur réécrit de zéro, en Rust), quand d’autres projets qui me semblaient moins prometteurs mais beaucoup plus « dans l’air du temps » (entendez : 🤮 metaverse 🤮 ou IA 🤮 déjà) ont été largement préférés. Pas besoin de revenir sur les différents épisodes, ou de trop me justifier ; disons que les derniers en date, notamment la cacophonie sur la notice liée à la vie privée, et l’arrivée d’IA nativement intégrée, ont un peu fini de me dégoûter, et ont rendu très compliqué pour moi le fait de continuer de défendre Mozilla malgré tout. Parce que oui, je continuerai à défendre l’outsider Mozilla, tant au niveau technologique ou au niveau organisationnel. Technologique, parce que c’est l’un des trois derniers participants à encore créer un moteur de rendu, en gros toute la machinerie qui permet de faire un navigateur Web, et l’un des deux à tenter de combattre l’hégémonie de celui de Google. Organisationnel, parce qu’il s’agit (toujours, malgré tout) d’une entreprise « à mission »[2] adossée à une fondation. Pas d’actionnaires auprès de qui il serait nécessaire de rendre des comptes ou d’offrir des dividendes ; pas d’objectif de s’enrichir à milliards. Juste une nécessité de gagner assez d’argent pour se maintenir en vie, et faire des trucs™ : payer les devs, proposer des initiatives d’éducation populaire au numérique et aux enjeux de protection de la vie privée. Du moins, ça c’est là où je les attendrais ; en pratique, l’entreprise a tendance à s’éparpiller, à s’accrocher à n’importe quel qualificateur porteur de hype de la Silicon Valley, et essayer d’en tirer un profit pour se désolidariser du financement de Google pour la publicité offerte. D’où le metaverse ; d’où les initiatives un peu surprenantes sur l’IA. Je comprends le pourquoi et partage la motivation de prendre de la distance par rapport au financement via Google. Ça en devient absurde : aux USA, des procès antitrust ont actuellement lieu pour empêcher Google de financer les navigateurs à coups de millions pour être le moteur de recherche principal, ce afin de permettre aux autres moteurs de recherche d’être plus compétitifs™. Mais c’est une telle source de revenus pour Mozilla, que Mozilla en vient à défendre Google pour que Big G puisse continuer ce genre de pratiques, sinon quoi la survie de Firefox (via son financement) serait menacée directement. Paradoxe de la compétition en effet. Bref, vivement que Mozilla puisse être plus tranquille financièrement, et idéalement pas en vendant de l’IA ou des produits inutiles ou en prenant des décisions qui ont l’air au mieux absurdes au pire effrayantes, et aussi je voudrais la paix dans le monde et un poney, ce sera tout, un café et l’addition merci. ok bon, alors on va où, on fait quoi ?Les plus malin·gnes auront lu le titre de l’article, et les plus pressé·es pourront aller au sous-titre suivant. En attendant, un peu d’état de l’art sur les navigateurs existants. Si vous êtes sur un MacOS ou un iOS, je pense assez sincèrement qu’Apple fait un bon boulot de protection de la vie privée avec Safari, et ça peut être une solution satisfaisante, si vous ignorez le fait que l’entreprise cherche à tout prix à vous enclaver dans son jardin doré, et fera tout pour éviter de vous faire voir ailleurs. Après tout, une application Web, c’est une application qui n’est pas dans l’App Store d’Apple, et qui donc ne rapporte pas d’argent à Apple, pourquoi s’embêter à soutenir une telle plateforme 😏 Et sinon, eh bien on ne va pas aller chez Chrome non plus, hein. Ce serait comme dire « ohlala la démocratie est en danger en France, si c’est comme ça je me casse en Chine / Corée du Nord / États-Unis[3] ». Émerge donc un besoin de cohérence, pour moi : je veux continuer à utiliser Gecko, le moteur de rendu de Firefox, et je veux continuer à utiliser un navigateur qui protège ma vie privée (et ne s’engouffre pas dans l’IA à la première occasion). Il existe bien des variantes de Firefox (forks) dans le monde du libre : IceCat (anciennement IceWeasel), LibreWolf me viennent à l’esprit, mais il en existe également d’autres d’après cette page Wikipédia. Ces forks ont tendance à réutiliser principalement les mêmes concepts de navigateurs tels que nous les connaissons, et s’évertuent à supprimer les fonctionnalités dont l’impact est considéré comme étant néfaste vis-à-vis de la vie privée : télémétrie, toutes les méthodes directes ou indirectes de tracking même si c’est pour Mozilla, IA intégrée, et j’en passe et des meilleures. D’aucuns disent à juste titre qu’abandonner Firefox pour aller sur un fork, c’est comme arrêter de boire de l’eau du robinet et ne consommer que l’eau mise en bouteille par le voisin un peu conspi et réac. Il y a effectivement un risque inhérent que les devs de ces projets s’amusent à mettre en place des bouts de code malveillants dans leur projet, ou le fassent par inadvertance. Le résultat est le même : les utilisateur·ices de ces forks seraient alors mis en danger, et l’utilisation d’un navigateur alternatif serait même contre-productive quant à l’intention initiale de mieux protéger sa vie privée des caprices des créateur·ices de Firefox. Mais la même question se poserait vis-à-vis de Firefox lui-même, si l’on ne savait pas que ce dernier est maintenu par la vénérable entreprise Mozilla ; la question de la confiance en le code est réglée, au vu des principes de l’entreprise. Ou « était » réglée ? L’intégration d’outils d’IA pourrait relever d’une trahison au niveau du code (la recette de fabrication de Firefox), remettant justement en question la confiance accordée par les utilisateur·ices. Je ne tiens pas à plonger dans l’aspect philosophique de la question. Pour moi, le fait que Firefox ou ses forks soient open-source garantit qu’il n’y aura pas de mauvaise surprise, parce que des gens plus paranoïaques que moi vont vérifier que le code ne fait pas n’importe quoi, à plus ou moins grande échelle. Cependant, même avec les plus belles intentions du monde, il est important que ces forks se remettent à jour sur Firefox régulièrement et rapidement. Je reviens là-dessus plus bas. Pour un usage général, je pense que l’option LibreWolf ferait très bien le boulot : pas d’intégration d’outils de protection de la vie privée qui rendraient l’usage imbitable pour des néophytes, des bons choix par défaut, très sensés, recommandé dans le dessin ci-dessus par le brillant David Revoy, bref, c’est Très Bien/10. pendant ce temps-là, à Vera Cruz,Pendant ce temps-là, donc, du côté des navigateurs pas open-source et conçus par des entreprises qui veulent engranger de la Grosse Caillasse™, il y a un petit nouveau, nommé Arc Browser. Bien entendu, basé sur Chrome. Mais qui apporte un peu de renouveau et de fraîcheur dans le monde des navigateurs. Par exemple, cette barre d’onglets verticale sur le côté, sans barre d’URL au dessus du site, pour une esthétique assez minimaliste, qui donne toute la place au site. Des espaces différents, avec des répertoires d’onglets, pour contenir et regrouper les innombrables onglets ouverts navigués dans des contextes différents, et limiter l’expansion de la charge cognitive de tout avoir sous les yeux tout le temps. La possibilité de découper la vue de la page en deux, pour pouvoir naviguer sur deux sites différents, côte-à-côte. Miam miam ; enfin un peu d’innovation dans les navigateurs, qui n’est pas sans rappeler le navigateur Vivaldi (aussi basé sur Chrome 🥲). Au final, quels sont ses défauts, pour moi ? D’une part il est basé sur Chrome, et participe de l’hégémonie de son moteur de rendu. D’autre part, il est maintenu par une entreprise qui injecte de l’IA à toutes balles dans la version mobile du navigateur. Enfin, il n’est pas disponible sous Linux, système d’exploitation que j’affectionne tout particulièrement pour l’utiliser au quotidien 🤓 la lettre d’amour (rohlala enfin, on n’en pouvait plus)Et c’est là qu’entre en jeu notre seigneur et sauveur[4] le Zen Browser. Pas besoin de tergiverser, vu que sa conception semble directement inspirée d’Arc, il contient peu ou prou les mêmes fonctionnalités, et même mieux : Ce navigateur est basé sur Firefox et donc Gecko. En soi, il soutient donc indirectement la puissance technologique de Mozilla. Plus pragmatiquement, il est compatible avec l’écosystème d’addons Firefox (si vous n’avez pas encore installé uBlocks, allez-y, prenez votre temps, je vous attends tranquillement ici) et permet de se synchroniser avec un compte Mozilla classique (pour partager ses favoris / mots de passe etc. avec les autres instances de Zen Browser… ou de Firefox !). Il est disponible sur Linux, MacOS et Windows, donc globalement partout. Il y a donc une barre d’onglets verticale, sur le côté, qui laisse toute la place au contenu. Pas de barre d’URL en haut ; celle-ci existe bien, mais elle est plus discrète, en haut de la pile des onglets. Il est même possible de déplacer cette barre d’onglets sur la droite de l’écran. J’adore ça, personnellement, puisque ça donne la place principale sur mon écran pour l’application Web que je suis en train de regarder, et ça a même tendance à me faire croire que l’application Web est en fait une app native. En appuyant sur Ctrl+Alt+C, j’enclenche le mode compact, qui cache même cette barre d’onglets, pour n’avoir vraiment plus que le site en face des yeux. C’est très reposant et très zen (j’approuve le nom de facto). Il est aussi possible d’épingler des sites favoris, ce qui va n’afficher que leur icône, en très gros, tout en haut de la barre d’onglets. Idéal pour les sites sur lesquels je reviens souvent, notamment le tchat Matrix, mes emails, le lecteur musical etc. Le navigateur essaie très activement de décharger automatiquement les onglets, notamment ceux qui n’ont pas été visités depuis un petit moment (alors que le navigateur était ouvert). Dans la barre d’onglets verticaux, il est même possible de séparer les onglets qui ne doivent pas être déchargés (au dessus d’une petite barre horizontale) de ceux qui peuvent l’être à n’importe quel moment (en dessous de cette même barre horizontale). Autant vous dire que la mémoire vive (RAM) de votre ordinateur appréciera 🥰 La gestion des onglets en espaces permet de compartimentaliser et de séparer les différents contextes liés à des onglets. Après quelques semaines d’utilisation sur cette machine, j’ai 3 espaces : un pour la navigation « au quotidien » que j’essaie de vider régulièrement, un pour Kresus (🎶 un gestionnaire de finances personnelles libre, qu’il est trop bien 🎶) avec des liens vers des merge requests à relire ou finir, un pour des pages et sites que j’aimerais lire ou explorer plus tard, mais moins prioritaires. Le découpage de la vue en plusieurs sous-vues (split view) est hyper pratique pour consulter deux pages en même temps. On clique sur deux onglets (ou plus), puis par exemple on presse Ctrl+Alt+V pour les afficher côte-à-côte verticalement. Dans mes cas d’utilisation récurrents, je noterai le fait de prendre des notes (dans Silverbullet par exemple) pendant que je regarde une vidéo instructive sur Youtube (et oui) ; ou de faire une comparaison de deux sites au niveau de leur contenu. Il est possible de découper la vue jusque 4 fois, donc j’imagine aussi bien un cas d’usage de tableau de bord avec plein de sites importants qu’on veut garder sous les yeux. L’une de mes fonctionnalités favorites, c’est l’ouverture d’un lien en mode aperçu (glance). Pour cela, on clique sur un lien en maintenant pressé Alt. Cela ouvre une plus petite vue de ce site au-dessus du site que l’on visite, et cette petite vue peut être fermée via une presse de la touche Échap ou en cliquant en dehors de cette vue ; ce qui nous ramène au site précédent. Il est également possible d’étendre une vue aperçu en un véritable onglet, pour naviguer plus normalement dessus. Ça ne paraît pas grand chose comme ça, mais pour moi c’est très très utile : souvent je suis sur des sites avec beaucoup de liens, et j’en suis parfois certains pour aller voir ce qui se trame derrière, avant de revenir au site. Avec ce mode d’aperçu, je reste dans le contexte de ce que je regardais avant, et je passe moins de temps à jongler entre plein d’onglets ; je n’ai qu’un seul onglet ouvert tout du long de ma navigation. Le fork est maintenu par des passionné·es, pas par une entreprise ; ce qui pourrait être un désavantage, mais l’activité autour du projet est très élevée. D’une part, beaucoup de commits récents dans l’historique du dépôt de code… …Et ce qui est le plus important, selon moi : les mises à jour de rattrapage de Firefox sont hyper rapides. Le problème est le suivant, quand vous maintenez un navigateur basé sur Firefox, il est nécessaire de récupérer régulièrement les changements de votre projet source (on parle d’upstream), ici Firefox, afin de les intégrer dans votre projet. Si ce n’est pas fait assez rapidement, vous risquez très rapidement d’utiliser un logiciel qui a des failles de sécurité rendues publiques. Or, de ce que j’observe, les devs de Zen Browser ont tendance à intégrer les nouvelles versions de Firefox très vite ; la dernière version de Firefox (la 138.0.1) est sortie le 1er mai, la version correspondante de Zen Browser (basée sur la 138.0.1) est sortie le 3 mai (voire le soir du 2 mai). Pour moi, c’est gageure de qualité, d’autant plus que c’est donc maintenu par des gens qui font ça sur leur temps libre, pour le plaisir, c’est particulièrement honorable 🙏 oui mais quid de ceci, Benjamin, quid de cela ?Ohlala je vous vois arriver avec vos gros sabots. Non, le Zen Browser n’est pas parfait, et c’est OK. Oui, c’est risqué qu’un navigateur, un des logiciels les plus centraux dans nos utilisations bureautiques modernes, soit maintenu par une poignée de gentils geeks avec trop de temps libre. Oui, Firefox pourrait sûrement faire la même chose avec 15 personnalisations de about:config, un thème personnalisé en CSS et une plâtrée d’addons [5]. Je reviendrais sûrement sur Firefox, si jamais l’activité autour de Zen Browser venait à diminuer, ou bien au premier mouvement de drague à destination de l’IA, ou bien à la première faille de sécurité pas ou mal gérée. En attendant, c’est rafraîchissant d’avoir de nouveau du plaisir à utiliser un navigateur Web moderne, avec des fonctionnalités innovantes, tout en ne faisant aucun compromis sur ma vie privée. J’utilise maintenant Zen Browser depuis quelques semaines sur une machine, et je suis tout bonnement ravi, au point que je pense l’installer un peu partout rapidement, en complément/remplacement de Firefox. J’ai tendance à être de moins en moins prosélyte quant à l’utilisation de logiciels, libres ou non. Chacun·e fait bien comme iel veut, on ne part pas toustes du même endroit, on a bien le droit de prioriser d’autres sujets avant celui de l’utilisation de tel ou tel logiciels. Mais c’est une des premières fois depuis un moment que je remarque un logiciel libre si cool et innovant que j’adore l’utiliser, que j’ai envie d’en parler et de vous le partager ; voilà qui est chose faite 😊 Pour télécharger le navigateur Zen Browser, c’est par ici. Si comme moi vous êtes fans, n’hésitez-pas à soutenir le développement avec un don ! bac +5 les enfants, comme disait le cowboy ↩ j’emploie des guillemets ici, parce qu’il me semble que le terme a une signification bien précise aux USA, mais ce n’est pas celle que j’utilise ici. ↩ too soon 🥲 ↩ roh le cliché de libriste, c’est moche. ↩ il y a quelques semaines j’ai essayé de supprimer la barre d’URL en haut de Firefox pour la cacher, ou ne l’afficher qu’au survol ; sachez qu’il n’existe pas de solution officielle, et toutes les solutions officieuses (à base de Greasemonkey ou autres billevesées) sont fragiles comme un égo de mec. ↩ Afficher l’article complet
-
durée de lecture : 2 minPublié le 07 mai 2025 à 14:10 par C'est un véritable raz-de-marée pour la création française ! Le jeu vidéo "Clair Obscur: Expedition 33", développé par le studio français Sandfall Interactive, connaît un démarrage absolument fulgurant. En seulement douze jours depuis sa sortie, le titre s'est déjà écoulé à plus de 2 millions d'exemplaires à travers le monde. Un succès retentissant qui confirme le talent et l'ambition de la scène vidéoludique hexagonale. L'industrie française du jeu vidéo est en fête ! Le lancement de "Clair Obscur: Expedition 33" est bien plus qu'une simple sortie, c'est une démonstration de force. Atteindre la barre symbolique des deux millions de ventes en moins de deux semaines est une performance remarquable, surtout pour une nouvelle licence issue d'un studio indépendant comme Sandfall Interactive. Un démarrage record pour le RPG françaisLe chiffre a de quoi donner le tournis : 2 millions de copies de Clair Obscur: Expedition 33 ont trouvé preneur en seulement 12 jours. Cette performance commerciale place d'emblée le titre parmi les lancements les plus réussis de l'année et positionne le jeu français sur la carte mondiale des créations vidéoludiques incontournables. L'équipe de Sandfall Interactive peut être fière de ce plébiscite des joueurs, qui témoigne d'une attente et d'un accueil plus que chaleureux pour leur création. La situation est d'autant plus bluffante que le titre est également proposé gratuitement au sein du Xbox Game Pass. Atteindre 2 millions de ventes en 12 jours dans ces conditions est d'autant plus remarquable. Qu'est-ce que Clair Obscur: Expedition 33 ?Mais qu'est-ce qui se cache derrière ce nom poétique, "Clair Obscur: Expedition 33" ? Il s'agit d'un RPG ambitieux qui se distingue par une direction artistique somptueuse, jouant avec maestria sur les contrastes de lumière et d'ombre, comme son nom l'indique. Le titre mise sur un univers riche et une narration soignée, plongeant les joueurs dans une quête épique. Le jeu, développé par le studio français Sandfall Interactive, a été lancé sur PC et consoles de nouvelle génération, offrant une expérience visuelle et ludique de haute volée. Ses mécaniques de jeu, mêlant exploration et combats tactiques au tour par tour, semblent avoir particulièrement séduit. Il vient ainsi jouer des coudes avec les meilleurs J-RPG. Les clés d'un succès fulgurantPlusieurs facteurs peuvent expliquer ce démarrage en trombe. L'originalité de l'univers et la beauté de sa direction artistique ont certainement joué un rôle majeur, captant l'attention dès les premières présentations. De plus, "Clair Obscur: Expedition 33" a bénéficié d'un excellent bouche-à-oreille et de critiques positives qui ont souligné la qualité de ce RPG. L'attente pour un nouveau titre ambitieux dans ce genre, couplée à une communication efficace, a transformé l'essai en un véritable succès commercial. C'est une preuve éclatante que la créativité et le savoir-faire français peuvent briller sur la scène internationale du jeu vidéo. Mathieu M.Journaliste GNT spécialisé imprimantes 3D et nouvelles technologies Suivez GNT sur Google ActualitésRecevez nos notificationsSuivez GNT sur LinkedinSur le même sujetCette page peut contenir des liens affiliés. Si vous achetez un produit depuis ces liens, le site marchand nous reversera une commission sans que cela n'impacte en rien le montant de votre achat. En savoir plus. Afficher l’article complet
-
Windows : comment capturer l’activité au démarrage de l'OS ? - IT-Connect
Ldfa a posté un sujet dans Mon Wallabag
durée de lecture : 4 minDans ce tutoriel, nous vous montrons comment capturer et analyser l’activité au démarrage de Windows. Nous utiliserons pour cela l’outil ProcMon des Sysinternals. Capturer l’activité au démarrage de Windows peut avoir plusieurs intérêts. Par exemple, l'identification des logiciels et services qui s'exécutent automatiquement, la surveillance de l'activité réseau des processus ou l'investigation des plantages spécifiques. Cependant, cette tâche présente un défi majeur : la plupart des outils d'analyse ne peuvent être lancés qu'après l'ouverture d'une session utilisateur. Heureusement pour nous, ProcMon propose une solution grâce à son option de journalisation au démarrage. ProcMon est un outil de monitoring qui permet de tracer, enregistrer et analyser avec une grande précision les activités de tous les processus au niveau du système de fichier, des registres, des processus/threads et du réseau. Si vous souhaitez avoir une présentation plus détaillée de cet outil, que nous allons utiliser ici, je vous oriente vers notre article d’introduction : L’introduction de cet outil officiel de Microsoft étant faite, passons à l’action ! Une fois que ProcMon est sur votre système de fichier et que vous disposez d’un accès administrateur (obligatoire), nous allons l’exécuter afin d’avoir la vue suivante : Vue principale de ProcMon.Ici, il faut nous rendre dans Options, puis cocher Enable Boot Logging (littéralement : Activer la journalisation du démarrage) : Activation de la journalisation des activités au démarrage par Procmon.L’activation de cette option fait apparaitre la fenêtre suivante : Choix de la surveillance du thread profiling.L'activation de cette option Generate thread profiling est un cas d'utilisation avancé. Lorsque activé, ProcMon fait une capture avancée de l’utilisation des threads et de l'utilisation du processeur, ce qui vous permet d'identifier la source des problèmes de performances liés au processeur. Vous pouvez l’ignorer, à moins de savoir exactement que c’est cela dont vous avez besoin. Bref, il suffit de cliquer sur OK, et c’est tout ! Vous pouvez à présent redémarrer votre système. Pour être plus précis, lorsque l’on active le Boot Logging dans ProcMon, un pilote de filtre (Filter drivers) est installé au niveau du noyau du système d'exploitation. Ce pilote peut capturer les événements liés aux fichiers, aux registres, aux processus et aux threads. Il est conçu pour surveiller les appels système et les interactions à un niveau bas. Le pilote de ProcMon est principalement passif et enregistre les événements sans intervenir dans leur exécution. Une fois votre système redémarré, vous ne devriez pas voir de grandes différences. Cependant, vous trouverez dans le répertoire C:\Windows un fichier nommé Procmon.pmb : Fichier d'enregistrement des activités depuis le démarrage de ProcMon.C’est dans ce fichier que sont stockés les évènements capturés depuis le démarrage. Tant qu’il n’est pas ouvert par l’intermédiaire de ProcMon, ce dernier continuera de capturer des évènements. Sans toucher directement à ce fichier, nous pouvons à présent exécuter ProcMon (toujours en tant qu’utilisateur privilégié). Dès lors, le message suivant apparaitra : Message de confirmation pour l’enregistrer des données capturées.Il indique que ProcMon a trouvé son fichier de capture et vous demande si vous souhaitez arrêter la capture et enregistrer les évènements capturés. En cliquant sur OK, ProcMon ouvrira l’explorateur de fichier pour que vous puissiez enregistrer la capture, cette fois-ci au format PML. Dans mon cas, je l’enregistre, par exemple, dans C:\Users\Administrateur\Desktop. Une petite barre de progression va alors apparaitre, c’est l’enregistrement des activités qui est en cours (en général, il y en a beaucoup). Le contenu du fichier va s’afficher dans l’interface d’analyse et de filtre de ProcMon. Vous pourrez ensuite visualiser la totalité des évènements qui se sont produits du démarrage du système d’exploitation, jusqu’à l'enregistrement de la capture que nous venons de réaliser : Exemple des premières activités capturées par ProcMon.Tout l’intérêt d’utiliser ProcMon est ensuite bien sûr d’utiliser ses filtres et sa grande précision pour réaliser vos propres recherches et investigations. Pour en savoir plus sur ces filtres et le niveau de détails qu’il est possible d’obtenir, je vous renvoie à nouveau vers notre article dédié à l’utilisation de ProcMon : La possibilité d’enregistrer ces activités dans un fichier (format .PML) est intéressant pour l’historisation et la comparaison de deux captures, ou pour pouvoir revenir dessus plus tard si besoin. L'utilisation de ProcMon pour capturer l'activité au démarrage de Windows est très utile pour diagnostiquer les problèmes de performance et identifier les logiciels ou services qui s'exécutent dès le démarrage. En activant le Boot Logging, ProcMon enregistre toutes les interactions système, permettant une analyse détaillée grâce à ses filtres. Une astuce à garder en tête pour les cas difficiles ! N’hésitez pas à partager votre avis dans les commentaires ou à venir échanger avec notre communauté sur notre serveur Discord ! Afficher l’article complet -
Formation à l'Administration de serveurs Linux - Stéphane ROBERT
Ldfa a posté un sujet dans Mon Wallabag
durée de lecture : 8 minLinux est aujourd’hui omniprésent dans le monde des serveurs et des infrastructures IT. Ce système d’exploitation libre et open source alimente une majorité des serveurs web, des supercalculateurs, des infrastructures cloud et même des équipements embarqués. Que ce soit pour héberger un site web, gérer des services réseau ou déployer des applications critiques, Linux s’est imposé comme un choix incontournable grâce à sa stabilité, sa flexibilité et sa sécurité. Dans cette formation, vous découvrirez non seulement comment utiliser Linux efficacement, mais surtout comment l’administrer en toute autonomie. Vous apprendrez à maîtriser les commandes essentielles, à configurer le réseau, à gérer la sécurité de votre système et à surveiller ses performances. Vous serez également guidé dans la mise en œuvre de bonnes pratiques pour l’écriture de scripts shell, la gestion des utilisateurs, ou encore la planification des tâches automatiques. Pourquoi cette formation Linux Gratuite ?Parce qu’aujourd’hui, comprendre le fonctionnement d’un système Linux est indispensable pour toute personne souhaitant évoluer dans les métiers de l’administration système ou se préparer à des rôles orientés DevOps. Vous ne vous contenterez pas d’apprendre à utiliser Linux : vous saurez le configurer, le sécuriser et l’optimiser. À qui s’adresse cette formation Linux ?Cette formation Linux s’adresse à toute personne souhaitant acquérir des compétences en administration système Linux, que vous soyez : Administrateur système débutant souhaitant structurer vos connaissances ; Développeur cherchant à comprendre l’environnement dans lequel vos applications tournent ; Étudiant ou autodidacte préparant une certification comme la LFCS ; Ou encore un professionnel de l’IT désirant élargir votre champ de compétences en vue d’une spécialisation DevOps. Pour suivre cette formation dans de bonnes conditions, il est conseillé d’avoir : Des bases en informatique générale (utilisation du terminal, notions sur les systèmes d’exploitation) ; Une curiosité technique et une volonté d’expérimenter par vous-même. Vous n’avez jamais administré de serveur ? Aucun problème : cette formation a été conçue pour partir des fondamentaux. Vous avez déjà des notions mais souhaitez approfondir vos pratiques ? Les sections avancées vous permettront d’aller plus loin, notamment sur la gestion de la sécurité, la surveillance système ou l’optimisation des performances. Organisation de la formation LinuxCette formation a été pensée pour vous offrir un parcours progressif et pratique, articulé autour de plusieurs grands principes : 1. Cours théoriques détaillés Chaque chapitre aborde une thématique clé de l’administration Linux : commandes essentielles, gestion des fichiers, réseau, sécurité, optimisation… Les contenus sont illustrés d’exemples concrets et enrichis de liens vers des ressources externes pour aller plus loin. 2. Travaux pratiques avec auto-évaluation Pour chaque compétence, des travaux pratiques vous permettent d’appliquer directement ce que vous venez d’apprendre. Vous serez invité à reproduire des scénarios réels : configurer un réseau, écrire un script shell sécurisé ou encore surveiller les performances d’un serveur. Ces TP sont accompagnés de systèmes d’auto-évaluation pour valider votre progression en autonomie. 3. Contrôles réguliers des connaissances Afin de mesurer vos acquis, des quiz et contrôles de connaissances ponctuent la formation. Ces évaluations rapides vous aident à vérifier que vous avez bien assimilé les notions clés avant de poursuivre. 4. Une durée flexible selon votre rythme La durée de cette formation est estimée entre 40 et 50 heures, en fonction de votre niveau de départ et de votre implication personnelle. Vous pouvez choisir de suivre le parcours de façon intensive ou de le répartir sur plusieurs semaines selon vos disponibilités. 5. Un tremplin vers le DevOps En suivant ce programme complet, vous poserez les fondations essentielles pour évoluer ensuite vers des pratiques DevOps : gestion d’infrastructure automatisée, CI/CD, orchestration avec des outils comme Docker ou Kubernetes. Cette formation est donc une étape indispensable pour toute personne visant une carrière dans ces domaines. Programme de la formation LinuxLe programme de cette formation Linux a été soigneusement structuré pour vous accompagner pas à pas dans la découverte et la maîtrise des compétences essentielles à l’administration d’un serveur Linux. Chaque section aborde des thématiques clés : des bases fondamentales jusqu’aux notions avancées du noyau, en passant par la configuration réseau, la gestion des utilisateurs, les services système, ou encore la sécurisation et l’optimisation des performances. Notions fondamentales sur Linux Installation des serveurs Linux Installation de WSL2 Maîtriser les shells Linux : Introduction Le Shell Bash Le Shell Zsh Commandes Linux : Introduction aux commandes Linux Commandes d’arrêt et redémarrage Navigation & Manipulation de Fichiers Commandes avancées Gestion des processus Gestion de la mémoire Gestion des archives Gestion des périphériques Gestion du réseau Commandes de référence : awk de A à Z curl de A à Z find de A à Z grep de A à Z parallel de A à Z rsync de A à Z sed de A à Z tar de A à Z xargs de A à Z Édition de fichiers : Nano - L’éditeur de texte Vi - L’éditeur de texte Vim - Un vi amélioré Développement de scripts Shell : Développer des scripts Shell Écrire des scripts Shell sécurisés Configurer un serveur Linux : Introduction Configurer les utilisateurs et groupes Comprendre et configurer sudo Gérer les ACL Gestion des packages : Introduction APT : Debian/Ubuntu APK : Alpine Linux DNF : RedHat et dérivés Pacman : Arch Linux Zypper : Suse Configurer le stockage : Introduction Types de systèmes de fichiers : Introduction ext4 Btrfs XFS Gestion des disques locaux : Introduction Identifier les disques Gérer les partitions Monter/Démonter des partitions LVM - Gestion des volumes logiques Gérer l’espace disque Gérer les quotas Analyser les performances des disques Stockage en réseau : Configurer le réseau : Comprendre le réseau Linux Configurer avec Netplan Configurer avec NetworkManager Configurer le pare-feu : Introduction Firewalld UFW Configurer les services : Qu’est-ce-que Systemd ? Gestion des services avec systemctl Logs avec journalctl Gestion des logs avec logrotate Planification de tâches : Avec cron Avec systemd timers Optimisation des performances : Optimiser un serveur Linux Connexion SSH et tunneling sécurisé : Connexion SSH Transfert de fichiers avec SCP Tunneling SSH Notions importantes à connaître : Cgroups Namespaces Capabilities Préparer les Certifcations : LFCS Contrôle de connaissances Pour mieux visualiser la structure globale de cette formation, une mindmap est disponible ci-dessous, vous permettant d’avoir un aperçu clair et synthétique de l’ensemble du programme. Voici une rodmap de votre parcours d’apprentissage : LégendesRecommandéAlternatifOptionnel✔️ Choix personnel🖱️ Navigation• Glisser : déplacer• Molette : zoom• Double clic : recentrerLinux Notions fondamentales sur Linux Installation de Linux Installation de Linux Installation via WSL2 Maîtriser les shells Linux Introduction aux Shells Linux Bash Zsh Fish Commandes Linux Commandes de base Commandes d'aideCommandes de navigationManipulation de fichiersGestion des permissionsVisualisation de fichiersCommandes de rechercheGestion des processus man tldr ls cd pwd cp mv rm mkdir rmdir chmod chown chgrp cat less head tail find locate jobs bg fg Commandes avancées Commandes système de fichiersCommandes de gestion des processusCommandes de manipulation de texteCommandes de comparaisonCommandes de surveillance df du free uname ps top kill grep cut sort uniq tr wc paste join comm nl tee rev fold sed awk diff watch Édition de fichiers Éditeur de texte Vi Éditeur de texte Nano Éditeur de texte Vim Éditeur de texte EmacsÉditeur de texte NeovimScripts Shell Écrire ses premiers scripts Shell Écrire des scripts shells sécurisés Configurer un serveur Linux Utilisateurs et groupes Système de fichiers Introduction au système de fichiers ext4 Btrfs XFS LVM Gestionnaire de paquets APT YUM/DNFPacmanZypper APK YAYNix Prêt à vous lancer ? Plongez pour développer une maîtrise complète de l’administration systèmes sous Linux. FAQ - Questions Fréquemment PoséesQuelles sont les missions principales d’un administrateur système Linux ?L’administrateur système Linux est responsable de l’installation, la configuration, la maintenance et la sécurisation des serveurs Linux. Il surveille les performances, gère les sauvegardes, automatise les tâches répétitives et assure la disponibilité des services réseau. Quelles compétences clés doit maîtriser un administrateur Linux ?Il doit maîtriser le terminal Linux, la gestion des utilisateurs, la configuration réseau, les systèmes de fichiers, la sécurité (pare-feu, sudo), la surveillance des performances et l’écriture de scripts shell. La connaissance des outils de monitoring et de virtualisation est également importante. Comment débuter dans l’administration système Linux ?Commencez par installer une distribution Linux serveur (Ubuntu, Debian…), entraînez-vous aux commandes de base, apprenez à gérer les services, configurez le réseau et mettez en place des scripts automatisés. Suivre des tutoriels pratiques et préparer une certification type LFCS est recommandé. Comment surveiller efficacement un serveur Linux ?Utilisez des outils natifs comme `top`, `htop`, `vmstat`, `iostat` et `journalctl` pour la surveillance de base. Pour un monitoring avancé, déployez des solutions comme Zabbix, Nagios ou Prometheus afin d’obtenir des alertes et des rapports détaillés. Quelles sont les bonnes pratiques pour sécuriser un serveur Linux ?Mettre à jour régulièrement le système, configurer un pare-feu (UFW, Firewalld), désactiver les services inutiles, utiliser des clés SSH, limiter les droits sudo, surveiller les logs et appliquer la règle du moindre privilège sont des bonnes pratiques essentielles. Pourquoi l’automatisation est-elle essentielle pour un administrateur Linux ?L’automatisation via des scripts shell ou des outils comme Ansible permet de réduire les erreurs humaines, de standardiser les déploiements et de gagner du temps sur les tâches répétitives (sauvegardes, mises à jour, surveillance…). Quelles certifications recommandées pour un administrateur Linux ?Les certifications les plus reconnues sont : LFCS (Linux Foundation Certified System Administrator), LPIC-1, CompTIA Linux+, et RHCSA (Red Hat Certified System Administrator). Elles valident des compétences pratiques recherchées par les employeurs. Quels outils utiliser pour la gestion des services sous Linux ?L’outil principal est `systemctl` (Systemd), qui permet de démarrer, arrêter, redémarrer, activer au démarrage et vérifier le statut des services. Exemple : `systemctl restart apache2`, `systemctl enable ssh`, `systemctl status nginx`. Quelle est la place de Linux dans le DevOps ?Linux est le socle des pratiques DevOps : conteneurs (Docker), orchestration (Kubernetes), intégration continue, infrastructure as code… Tous ces outils reposent sur un environnement Linux, rendant sa maîtrise indispensable pour un rôle DevOps. Quels sont les défis quotidiens d’un administrateur Linux ?Les défis incluent la gestion des incidents, la garantie de la disponibilité des services, l’optimisation des performances, l’application rapide des correctifs de sécurité, la gestion des sauvegardes et la documentation précise des interventions. Afficher l’article complet -
durée de lecture : 18 min Temps de lecture 20 min Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 13 janvier 2025 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA. Hubert Guillaud Des contenus générés par IA qui ânonnent des textes qui ne veulent rien dire. Des images stylisées qui nous déconnectent de la réalité. L’internet zombie colonise l’internet, par un remplissage par le vide qui n’a pas d’autre enjeu que de nous désorienter. Sur la plupart des réseaux sociaux vous avez déjà dû tomber sur ces contenus génératifs, pas nécessairement des choses très évoluées, mais des contenus étranges, qui n’ont rien à dire, qui hésitent entre développement personnel creux, blague ratée ou contenu sexy. Des vidéos qui ânonnent des textes qui ne veulent rien dire. Les spécialistes parlent de slop, de contenus de remplissages, de résidus qui peu à peu envahissent les plateformes dans l’espoir de générer des revenus. A l’image des contenus philosophiques générés par l’IA que décortique en vidéo Monsieur Phi. IA slop : de la publicité générative à l’internet zombie Pour l’instant, ces contenus semblent anecdotiques, peu vus et peu visibles, hormis quand l’un d’entre eux perce quelque part, et en entraîne d’autres dans son flux de recommandation, selon la logique autophagique des systèmes de recommandation. Pour l’analyste Ben Thompson, l’IA générative est un parfait moteur pour produire de la publicité – et ces slops sont-ils autre chose que des contenus à la recherche de revenus ? Comme le dit le philosophe Rob Horning : « le rêve de longue date d’une quantité infinie de publicités inondant le monde n’a jamais semblé aussi proche ». Pour Jason Koebler de 404 Media, qui a enquêté toute l’année sur l’origine de ce spam IA, celui-ci est profondément relié au modèle économique des réseaux sociaux qui rémunèrent selon l’audience que les créateurs réalisent, ce qui motive d’innombrables utilisateurs à chercher à en tirer profit. Koebler parle d’ailleurs d’internet zombie pour qualifier autant cette génération de contenu automatisée que les engagements tout aussi automatisés qu’elle génère. Désormais, ce ne sont d’ailleurs plus les contenus qui sont colonisés par ce spam, que les influenceurs eux-mêmes, notamment par le biais de mannequins en maillots de bains générés par l’IA. À terme, s’inquiète Koebler, les médias sociaux pourraient ne plus rien avoir de sociaux et devenir des espaces « où le contenu généré par l’IA éclipse celui des humains », d’autant que la visibilité de ces comptes se fait au détriment de ceux pilotés par des humains. Des sortes de régies publicitaires sous stéroïdes. Comme l’explique une créatrice de contenus adultes dont l’audience a chuté depuis l’explosion des mannequins artificiels : « je suis en concurrence avec quelque chose qui n’est pas naturel ». Ces contenus qui sont en train de coloniser les réseaux sociaux n’ont pas l’air d’inquiéter les barons de la tech, pointait très récemment Koebler en rapportant les propose de Mark Zuckerberg. D’autant que ces contenus génératifs semblent produire ce qu’on attend d’eux. Meta a annoncé une augmentation de 8 % du temps passé sur Facebook et de 6 % du temps passé sur Instagram grâce aux contenus génératifs. 15 millions de publicités par mois sur les plateformes Meta utilisent déjà l’IA générative. Et Meta prévoit des outils pour démultiplier les utilisateurs synthétiques. Le slop a également envahi la plateforme de blogs Medium, explique Wired, mais ces contenus pour l’instant demeurent assez invisibles, notamment parce que la plateforme parvient à limiter leur portée. Un endiguement qui pourrait ne pas résister au temps. À terme, les contenus produits par les humains pourraient devenir de plus en plus difficiles à trouver sur des plateformes submergées par l’IA. On voudrait croire que les réseaux sociaux puissent finir par s’effondrer du désintérêt que ces contenus démultiplient. Il semble que ce soit l’inverse, l’internet zombie est en plein boom. Tant et si bien qu’on peut se demander, un an après le constat de l’effondrement de l’information, si nous ne sommes pas en train de voir apparaître l’effondrement de tout le reste ? Les enjeux du remplissage par le vide Dans sa newsletter personnelle, le chercheur et artiste Eryk Salvaggio revient à son tour sur le remplissage par l’IA, dans trois longs billets en tout point passionnants. Il souligne d’abord que ce remplissage sait parfaitement s’adapter aux algorithmes des médias sociaux. Sur Linked-in, les contenus rédigés par des LLM seraient déjà majoritaires. Même le moteur de recherche de Google valorise déjà les images et les textes générés par IA. Pour Salvaggio, avec l’IA générative toute information devient du bruit. Mais surtout, en se jouant parfaitement des filtres algorithmiques, celle-ci se révèle parfaitement efficace pour nous submerger. Jesus Schrimp, image symbolique des eaux troubles de l’IA produisant son propre vide.Salvaggio propose d’abandonner l’idée de définir l’IA comme une technologie. Elle est devenue un projet idéologique, c’est-à-dire que « c’est une façon d’imaginer le monde qui devient un raccourci pour expliquer le monde ». Et elle est d’autant plus idéologique selon les endroits où elle se déploie, notamment quand c’est pour gérer des questions sociales ou culturelles. « L’optimisation de la capacité d’un système à affirmer son autorité est une promesse utopique brillante des technologies d’automatisation ». « L’un des aspects de l’IA en tant qu’idéologie est donc la stérilisation scientifique de la variété et de l’imprévisibilité au nom de comportements fiables et prévisibles. L’IA, pour cette raison, offre peu et nuit beaucoup au dynamisme des systèmes socioculturels ». Les gens participent à l’idéologie de l’IA en évangélisant ses produits, en diffusant ses résultats et en soutenant ses avancées pour s’identifier au groupe dominant qui l’a produit. La production par l’IA de contenus de remplissage nécessite de se demander à qui profite ce remplissage abscons ? Pour Salvaggio, le remplissage est un symptôme qui émerge de l’infrastructure même de l’IA qui est elle-même le résultat de l’idéologie de l’IA. Pourquoi les médias algorithmiques récompensent-ils la circulation de ces contenus ? Des productions sensibles, virales, qui jouent de l’émotion sans égard pour la vérité. Les productions de remplissage permettent de produire un monde tel qu’il est imaginé. Elles permettent de contourner tout désir de comprendre le monde, car elle nous offre la satisfaction immédiate d’avoir un « sentiment sur le monde ». « L’AI Slop est un signal vide et consommé passivement, un symptôme de « l’ère du bruit », dans lequel il y a tellement de « vérité » provenant de tant de positions que l’évaluation de la réalité semble sans espoir. » Notre désorientation par le vide Eryk Salvaggio se demande même si le but de l’IA n’est pas justement de produire ce remplissage. Un remplissage « équipé », « armé », qui permet d’essaimer quelque chose qui le dépasse, comme quand l’IA est utilisée pour inonder les réseaux de contenus sexuels pour mieux essaimer le regard masculin. Les productions de l’IA permettent de produire une perspective, un « regard en essaim » qui permet de manipuler les symboles, de les détourner. « Les images générées par l’IA offrent le pouvoir de façonner le sens dans un monde où les gens craignent l’impuissance et l’absence de sens en les invitant à rendre les autres aussi impuissants et dénués de sens qu’eux ». Ces images « diminuent la valeur de la réalité », suggère brillamment Salvaggio. Elles créent « une esthétisation », c’est-à-dire rend la représentation conforme à un idéal. La fonction politique de ce remplissage va bien au-delà des seules représentations et des symboles, suggère-t-il encore. L’IA appliquée aux services gouvernementaux, comme les services sociaux, les transforme à leur tour « en exercice esthétique ». Notre éligibilité à une assurance maladie ou à une couverture sociale n’est pas différente de l’IA Slop. C’est cette même infrastructure vide de sens qui est pointée du doigt par ceux qui s’opposent à l’algorithmisation de l’Etat que ceux qui fuient les boucles de rétroactions délétères des médias sociaux. Le projet DOGE d’Elon Musk, ce département de l’efficacité gouvernementale qui devrait proposer un tableau de bord permettant aux internautes de voter pour éliminer les dépenses publiques les plus inutiles, semble lui-même une forme de fusion de médias sociaux, d’idéologie de l’IA et de pouvoir pour exploiter le regard en essaim de la population et le diriger pour harceler les fonctionnaires, réduire l’État providence autour d’une acception de l’efficacité ultra-réductrice. Au final, cela produit une forme de politique qui traite le gouvernement comme une interface de médias sociaux, conçue pour amplifier l’indignation, intimider ceux qui ne sont pas d’accord et rendre tout dialogue constructif impossible. Bienvenue à la « momusocratie » , le gouvernement des trolls, de la raillerie, explique Salvaggio, cette Tyrannie des bouffons chère à l’essayiste Christian Salmon. Mais encore, défend Salvaggio, le déversement de contenus produit par l’IA générative promet un épuisement du public par une pollution informationnelle sans précédent, permettant de perturber les canaux d’organisation, de réflexion et de connexion. « Contrôlez le filtre permet de l’orienter dans le sens que vous voulez ». Mais plus que lui donner un sens, la pollution de l’information permet de la saturer pour mieux désorienter tout le monde. Cette saturation est un excellent moyen de garantir « qu’aucun consensus, aucun compromis, ou simplement aucune compréhension mutuelle ne se produise ». Cette saturation ne vise rien d’autre que de promouvoir « la division par l’épuisement ». « Le remplissage est un pouvoir ». « L’idéologie de l’IA fonctionne comme une croyance apolitique trompeuse selon laquelle les algorithmes sont une solution à la politique » qui suppose que les calculs peuvent prendre les décisions au profit de tous alors que leurs décisions ne sont qu’au profit de certains, en filtrant les données, les idées, les gens qui contredisent les résultats attendus. Alors que l’élection de Trump éloigne les enjeux de transparence et de régulation, l’IA va surtout permettre de renforcer l’opacité qui lui assure sa domination. Vers un monde sans intérêt en boucle sur lui-même Dans la dernière partie de sa réflexion, Salvaggio estime que le remplissage est un symptôme, mais qui va produire des effets très concrets, des « expériences désintéressées », c’est-à-dire des « expériences sans intérêt et incapables de s’intéresser à quoi que ce soit ». C’est le rêve de machines rationnelles et impartiales, omniscientes, désintéressées et qui justement ne sont capables de s’intéresser à rien. Un monde où l’on confie les enfants à des tuteurs virtuels par souci d’efficacité, sans être capable de comprendre tout ce que cette absence d’humanité charrie de délétère. L’IA s’est construite sur l’excès d’information… dans le but d’en produire encore davantage. Les médias sociaux ayant été une grande source de données pour l’IA, on comprend que les contenus de remplissage de l’IA soient optimisés pour ceux-ci. « Entraînée sur du contenu viral, l’IA produit du contenu qui coche toutes les cases pour l’amplification. Le slop de l’IA est donc le reflet de ce que voient nos filtres de médias sociaux. Et lorsque les algorithmes des médias sociaux en reçoivent les résultats, il les reconnaît comme plus susceptibles de stimuler l’engagement et les renforce vers les flux (générant plus d’engagement encore). » Dans le tonneau des Danaïdes de l’amplification, l’IA slop est le fluidifiant ultime, le contenu absurde qui fait tourner la machine sans fin. Combattre ce remplissage par l’IA n’est une priorité ni pour les entreprises d’IA qui y trouvent des débouchés, ni pour les entreprises de médias sociaux, puisqu’il ne leur porte aucun préjudice. « Les contenus de remplissage de l’IA sont en fait la manifestation esthétique de la culture à médiation algorithmique » : « ils sont stylisés à travers plus d’une décennie d’algorithmes d’optimisation qui apprennent ce qui pousse les gens à s’engager ». Face à ces contenus « optimisés pour performer », les artistes comme les individus qui ont tenté de partager leur travail sur les plateformes sociales ces dernières années ne peuvent pas entrer en concurrence. Ceux qui ont essayé s’y sont vite épuisés, puisqu’il faut tenir d’abord le rythme de publication infernal et infatigable que ces systèmes sont capables de produire. Dépouiller les symboles de leur relation à la réalité « Les images générées par l’IA peuvent être interprétées comme de l’art populaire pour servir le populisme de l’IA ». Elles visent à « dépouiller les symboles de leur relation à la réalité » pour les réorganiser librement. Les gens ne connaissent pas les films mais ont vu les mèmes. Le résultat de ces images est souvent critiqué comme étant sans âme. Et en effet, le texte et les images générés par l’IA souffrent de l’absence du poids du réel, dû à l’absence de logique qui préside à leur production. « L’ère de l’information est arrivée à son terme, et avec elle vient la fin de toute définition « objective » et « neutre » possible de la « vérité ». » L’esthétique du remplissage par l’IA n’est pas aléatoire, mais stochastique, c’est-à-dire qu’elle repose sur une variété infinie limitée par un ensemble de règles étroites et cohérentes. Cela limite notre capacité à découvrir ou à inventer de nouvelles formes de culture, puisque celle-ci est d’abord invitée à se reproduire sans cesse, à se moyenniser, à s’imiter elle-même. Les images comme les textes de l’IA reflètent le pouvoir de systèmes que nous avons encore du mal à percevoir. Ils produisent des formes de vérités universalisées, moyennisées qui nous y enferment. Comme dans une forme d’exploitation sans fin de nos représentations, alors qu’on voudrait pouvoir en sortir, comme l’expliquait dans une note pour la fondation Jean Jaurès, Melkom Boghossian, en cherchant à comprendre en quoi les algorithmes accentuent les clivages de genre. Comme s’il devenait impossible de se libérer des contraintes de genres à mesure que nos outils les exploitent et les renforcent. Cet internet de contenus absurde n’est pas vide, il est plein de sens qui nous échappent et nous y engluent. Il est plein d’un monde saturé de lui-même. A mesure que l’IA étend son emprise sur la toile, on se demande s’il restera encore des endroits où nous en serons préservés, où nous pourrons être mis en relation avec d’autres humains, sans que tout ce qui encode les systèmes ne nous déforment. Du remplissage à la fin de la connaissance Dans une tribune pour PubliBooks, la sociologue Janet Vertesi estime que les recherches en ligne sont devenues tellement chaotiques et irrationnelles, qu’elle a désormais recours aux dictionnaires et encyclopédies papier. « Google qui a fait fortune en nous aidant à nous frayer un chemin sur Internet se noie désormais dans ses propres absurdités générées par elle-même ». Nous voici confrontés à un problème d’épistémologie, c’est-à-dire de connaissance, pour savoir ce qui est réel et ce qui ne l’est pas. Au XXᵉ siècle, les philosophes ont défini la connaissance comme une croyance vraie justifiée. La méthode scientifique était le moyen pour distinguer la bonne science de la mauvaise, la vérité du mensonge. Mais cette approche suppose souvent qu’il n’y aurait qu’une seule bonne réponse que nous pourrions connaître si nous adoptons les bonnes méthodes et les bons outils. C’est oublier pourtant que la connaissance ne sont pas toujours indépendantes de l’expérience. Ludwig Wittgenstein a utilisé la figure du canard-lapin pour montrer comment des personnes rationnelles pouvaient en venir à avoir des points de vue irréconciliablement différents sur une même réalité. Les épistémologues se sont appuyés sur cette idée pour montrer que les personnes, selon leurs positions sociales, ont des expériences différentes de la réalité et que la connaissance objective ne pouvait naître que de la cartographie de ces multiples positions. Les sociologues de la connaissance, eux, examinent comment différents groupes sociaux en viennent à légitimer différentes manières de comprendre, souvent à l’exclusion des autres. Cela permet de comprendre comment différents faits sociaux circulent, s’affrontent ou se font concurrence, et pourquoi, dans les luttes pour la vérité, ceux qui détiennent le pouvoir l’emportent si souvent… Imposant leurs vérités sur les autres. Mais ces questions ne faisaient pas partie des préoccupations de ceux qui ont construit internet, ni des systèmes d’IA générative qui s’en nourrissent. Depuis l’origine, internet traite toutes les informations de manière égale. Le réseau ne consiste qu’à acheminer des paquets d’informations parfaitement égaux entre eux, rappelle la sociologue. À cette neutralité de l’information s’est ajoutée une autre métaphore : celle du marché des idées, où chaque idée se dispute à égalité notre attention. Comme dans le mythe du libre marché, on a pu penser naïvement que les meilleures idées l’emporteraient. Mais ce régime épistémique a surtout été le reflet des croyances de l’Amérique contemporaine : un système de connaissance gouverné par une main invisible du marché et entretenue par des conservateurs pour leur permettre de générer une marge bénéficiaire. « Pourtant, la connaissance n’est pas une marchandise. La « croyance vraie justifiée » ne résulte pas non plus d’une fonction d’optimisation. La connaissance peut être affinée par le questionnement ou la falsification, mais elle ne s’améliore pas en entrant en compétition avec la non-connaissance intentionnelle. Au contraire, face à la non-connaissance, la connaissance perd. » L’interrogation du monde par des mécanismes organisés, méthodiques et significatifs – comme la méthode scientifique – peut également tomber dans le piège des modes de connaissance fantômes et des impostures méthodologiques. « Lorsque toute information est plate – technologiquement et épistémologiquement – il n’y a aucun moyen d’interroger sa profondeur, ses contours ou leur absence ». En fait, « au lieu d’être organisé autour de l’information, l’Internet contemporain est organisé autour du contenu : des paquets échangeables, non pondérés par la véracité de leur substance. Contrairement à la connaissance, tout contenu est plat. Aucun n’est plus ou moins justifié pour déterminer la vraie croyance. Rien de tout cela, au fond, n’est de l’information. » « En conséquence, nos vies sont consumées par la consommation de contenu, mais nous ne reconnaissons plus la vérité lorsque nous la voyons. Et lorsque nous ne savons pas comment peser différentes vérités, ou coordonner différentes expériences du monde réel pour regarder derrière le voile, il y a soit une cacophonie, soit un seul vainqueur : la voix la plus forte qui l’emporte. » Contrairement à Wikipédia, encore relativement organisé, le reste du Web est devenu la proie de l’optimisation des moteurs de recherche, des technologies de classement et de l’amplification algorithmique, qui n’ont fait que promouvoir le plus promouvable, le plus rentable, le plus scandaleux. « Mais aucun de ces superlatifs n’est synonyme de connaissance ». Les systèmes qui nous fournissent nos informations ne peuvent ni mesurer ni optimiser ce qui est vrai. Ils ne s’intéressent qu’à ce sur quoi nous cliquons. Et le clou dans le cercueil est enfoncé par l’intelligence artificielle qui « inonde Internet de contenu automatisé plus rapidement que l’on ne peut licencier une rédaction ». Dans ce paysage sous stéroïdes, aucun système n’est capable de distinguer la désinformation de l’information. Les deux sont réduits à des paquets de même poids cherchant leur optimisation sur le marché libre des idées. Et les deux sont ingérés par une grande machinerie statistique qui ne pèse que notre incapacité à les distinguer. Aucun système fondé sur ces hypothèses ne peut espérer distinguer la « désinformation » de « l’information » : les deux sont réduites à des paquets de contenu de même valeur, cherchant simplement une fonction d’optimisation dans un marché libre des idées. Et les deux sont également ingérées dans une grande machinerie statistique, qui ne pèse que notre incapacité à les discerner. Le résultat ne promet rien d’autre qu’un torrent indistinct et sans fin, « où la connaissance n’a jamais été un facteur et d’où la connaissance ne peut donc jamais émerger légitimement ». « Sans topologie de l’information, nous sommes à la dérive dans le contenu, essayant en vain de naviguer dans une cascade d’absurdités sans boussole ». « Il est grand temps de revenir à ces méthodes et à ces questions, aux milliers d’années de gestion de l’information et d’échange de connaissances qui ont transmis non seulement des faits ou du contenu, mais aussi une appréciation de ce qu’il faut pour faire émerger des vérités », plaide Vertesi. « Il n’est pas nécessaire que ce soit un projet colonial ou réductionniste. Les connaissances d’aujourd’hui sont plurielles, distribuées, issues de nombreux lieux et peuples, chacun avec des méthodes et des forces d’ancrage uniques. Cela ne signifie pas non plus que tout est permis. Le défi consiste à s’écouter les uns les autres et à intégrer des perspectives conflictuelles avec grâce et attention, et non à crier plus fort que les autres ». « Alors que nos vies sont de plus en plus infectées par des systèmes d’IA maladroits et pilleurs et leurs flux hallucinatoires, nous devons apprendre à évaluer plutôt qu’à accepter, à synthétiser plutôt qu’à résumer, à apprécier plutôt qu’à accepter, à considérer plutôt qu’à consommer ». « Notre paysage technologique contemporain exige de toute urgence que nous revenions à une autre des plus anciennes questions de toutes : « Qu’est-ce qui est vraiment réel ? » » Afficher l’article complet
-
durée de lecture : 3 minJe suis content d’avoir investi dans un Mac Studio pour faire tourner des modèles IA un peu plus balèzes du coup, je surveille un peu ce qui sort en ce moment comme modèles, notamment pour coder, et voilà que la famille de modèles Qwen3 vient d’être officiellement lancée, et franchement, ça a l’air plutôt pas mal ! Surtout si vous aimez jouer avec du LLM sans passer par les API payantes de géants de la tech comme OpenAI. Qwen3 (prononcez “Tchwen”, ça fait plus cool en soirée) est donc la nouvelle génération de modèles développée par Alibaba, qui débarque avec des performances assez bluffantes, surtout quand on regarde le rapport puissance / ressources nécessaires. Cette famille comprend 8 modèles différents, dont 2 utilisant l’architecture MoE (Mixture-of-Experts) et 6 modèles dits “denses” (plus classiques), avec des tailles allant de 0,6B à 235B de paramètres. Autrement dit, il y en a pour tous les goûts et toutes les configurations, que vous ayez un PC de gamer dernier cri ou juste un portable un peu costaud. Celui qui se démarque dans cette famille, c’est Qwen3-30B-A3B, qui est un modèle à 30 milliards de paramètres et qui a été optimisé pour fonctionner à la vitesse d’un modèle de… 3 milliards de paramètres ! Un petit miracle d’ingénierie qui permet enfin d’avoir le beurre (la qualité d’un gros modèle) et l’argent du beurre (la vitesse d’un petit modèle). Et Qwen3 se défend plutôt bien face à la concurrence puisque son modèle phare, Qwen3-235B-A22B (qui est en fait un modèle de 235 milliards de paramètres optimisé pour tourner comme un modèle de 22 milliards), se place dans la même ligue que DeepSeek-R1 et les modèles d’OpenAI comme o1 et o3-mini. Il les dépasse même sur certains benchmarks ! Dans le détail, Qwen3-235B-A22B a obtenu des scores impressionnants sur ArenaHard (95,6%), AIME'24 (85,7%), LiveBench (77,1%) et MultiIF (71,9%). Pour les non-initiés qui me lisent, ces tests mesurent respectivement la capacité de raisonnement général, les compétences en mathématiques, la performance globale et les capacités multilingues. Dans tous ces domaines le modèle chinois surpasse ses concurrents directs et supporte même 119 langues et autres dialectes. Top pour faire des traductions ou discuter avec lui dans votre langue natale, hein les biloutes du 59 ! Une autre fonctionnalité intéressante est ce qu’ils appellent le “mode de pensée mixte” qui vous permet de demander au modèle de basculer entre un “mode réflexion” (où il détaille son raisonnement étape par étape, idéal pour les problèmes complexes) et un “mode rapide” (où il donne directement la réponse, parfait pour les questions simples). Ce contrôle se fait via des balises comme “/think” et “/no_think” et pour les plus codeurs d’entre vous, sachez que Qwen3 se débrouille également très bien en programmation. Sur l’échelle Elo de Codeforces, le modèle principal atteint même un score de 2056, soit le même niveau que DeepSeek-R1 (2029) et OpenAI-o3-mini (2036). Et le plus cool, c’est que tous ces modèles sont distribués sous licence Apache 2.0 donc vous pouvez l’utiliser à des fins commerciales sans avoir à verser des royalties ou à demander une autorisation spéciale (contrairement à Llama de Meta) !! Par contre, n’oubliez pas que c’est du 100% chinois, donc comme pour les modèles américains, prudence est mère de sureté. Maintenant pour ceux qui se demandent comment ces modèles ont été entraînés, et bien ils ont été gavé de 36 trillions de tokens (unités de texte) soit l’équivalent de plusieurs dizaines de milliers de livres, articles scientifiques, lignes de code et autres contenus spécialisés (v’la la gueule des ayants-droits…). Un vrai Bouffe-tout ce Qwen 3 ! Le modèle supporte également les extensions multimodales, ce qui signifie qu’il peut traiter non seulement du texte, mais aussi du code, de l’audio et des images. Il est également équipé pour les fonctionnalités d’agent, donc peut tout à fait utiliser des outils externes pour accomplir des tâches plus complexes. Bref tout cela en fait un modèle très intéressant donc si vous avez une carte graphique récente avec suffisamment de VRAM (idéalement une RTX de série 30 ou 40 avec au moins 16 Go), vous allez pouvoir vous amuser avec ! C’est même déjà dispo via Ollama et contrairement aux services cloud, vos données resteront chez vous, ce qui est quand même un gros avantage !! Amusez-vous bien ! Source Afficher l’article complet
-
durée de lecture : 7 minPar Antonin Leeno Publié le 20/04/25 à 17h008 Mistral AI, start-up française dans le domaine de l'IA générative, s'est rapidement fait connaître grâce à ses modèles de langage open source et commerciaux. Ce dossier vous dit tout sur cette pépite : son histoire, sa technologie et ses applications concrètes. Publicité, votre contenu continue ci-dessous Publicité denied:data:image/svg+xml,%3Csvg%20xmlns='http://www.w3.org/2000/svg'%3E%3C/svg%3ETout savoir sur Mistral AI.© Capture d'écran Qui est Mistral AI ?Mistral AI est une jeune entreprise française spécialisée dans le développement de technologies d’intelligence artificielle. Fondée en avril 2023 par Arthur Mensch, Guillaume Lample et Timothée Lacroix, trois chercheurs issus de l’École polytechnique ayant fait leurs armes chez Google DeepMind et Meta, la start-up se distingue par une approche résolument ouverte et transparente de l’IA. En rupture avec les pratiques souvent opaques du secteur, elle mise sur l’open source pour démocratiser l’accès aux modèles d’intelligence artificielle avancés. Publicité, votre contenu continue ci-dessous L’objectif de l’entreprise est clair : concevoir des solutions IA performantes, accessibles et reproductibles, tout en favorisant l’innovation collaborative. En moins de deux ans, Mistral AI s’est imposé comme un acteur pionnier en Europe, promouvant une vision éthique et inclusive de l’IA dans un paysage technologique dominé par les géants étasuniens. Le Chat MistralLe Chat Mistral est un assistant conversationnel intelligent, conçu pour offrir des réponses rapides, précises et bien documentées sur une grande variété de sujets. Accessible à la fois sur mobile et sur le web (depuis un navigateur). Téléchargements : 236 Date de sortie : 17/04/2025 Auteur : Mistral AI Licence : Licence gratuite Catégories : IA Système d'exploitation : Android, Service en ligne, iOS iPhone / iPad TéléchargerQue propose Mistral AI ?Mistral AI s’est rapidement imposé comme l’un des nouveaux acteurs majeurs de l’intelligence artificielle en Europe, en misant sur un double positionnement : des modèles commerciaux performants pour les entreprises et des solutions open source accessibles à tous. À cela s’ajoute un chatbot conversationnel destiné au grand public. Voici un aperçu structuré de son offre. C'est quoi un token ? Un token est un morceau de texte (mot, partie de mot, ponctuation) qui sert d'unité fondamentale pour qu'une IA puisse analyser, comprendre et générer du langage. La façon exacte dont le texte est découpé en tokens dépend de l'algorithme spécifique utilisé par le modèle (le tokenizer). Des modèles commerciaux conçus pour les entreprisesMistral AI développe plusieurs grands modèles de langage (LLM) réservés à un usage via API, adaptés à différents besoins professionnels : Mistral Large 2 Son modèle le plus avancé est capable de gérer jusqu’à 128 000 tokens et traiter plus de 80 langages de programmation, ainsi qu'une vaste palette de langues (français, anglais, espagnol, italien, coréen, chinois, japonais, arabe, hindi, etc.). Mistral Large Performant pour la génération de texte ou de code, il se positionne juste derrière GPT-4 sur de nombreux benchmarks, avec une fenêtre contextuelle de 32 000 tokens. Mistral Small Conçu pour l’efficacité et la rapidité, ce modèle est optimisé pour les tâches simples exécutées à grande échelle. Mistral Embed Spécialisé dans les représentations vectorielles de texte pour faciliter le traitement et l'analyse linguistique par les ordinateurs, il est particulièrement adapté à l'analyse des sentiments et à la classification textuelle, bien qu'actuellement disponible uniquement en anglais. Des modèles open source libres d’accèsMistral AI s’illustre également par ses modèles open source sous licence Apache 2.0, librement utilisables : Mistral 7B Efficace et léger, il offre des performances supérieures à des modèles deux fois plus grands, avec une fenêtre contextuelle de 32 000 tokens et une expertise en anglais et en code. Mixtral 8x7B Basé sur une architecture dite de “mélange d’experts”, il allie puissance et faible coût de calcul, surpassant Llama 2 et GPT-3.5 sur de nombreux benchmarks. Il offre une fenêtre contextuelle de 32 000 tokens et une maîtrise de l'anglais, du français, de l'espagnol, de l'allemand, de l'italien et du code. Mixtral 8x22B Version la plus avancée des modèles open source de Mistral, elle est optimisée pour le résumé de documents volumineux et la génération de textes importants avec une fenêtre contextuelle de 64 000 tokens et les mêmes compétences linguistiques que Mixtral 8x7B. Codestral Mamba Modèle de codage ultra-performant avec une fenêtre contextuelle de 256 000 tokens, il est capable de traiter de longues entrées complexes avec un raisonnement approfondi. Mathstral Version dérivée du Mistral 7B et optimisée pour la résolution de problèmes mathématiques complexes grâce à un raisonnement logique avancé. Il offre une fenêtre contextuelle de 32 000 tokens. Mistral NeMo Modèle compact, mais polyvalent, performant en codage et multilingue, avec une fenêtre contextuelle de 128 000 tokens. Le Chat, l’interface conversationnelleEn complément de ses modèles de langage, Mistral AI propose Le Chat, un chatbot d’IA générative accessible gratuitement depuis un navigateur ou via une application mobile. Ce chatbot permet aux utilisateurs d’interagir avec plusieurs modèles développés par l’entreprise (tels que Mistral Large, Small, ou Large 2) en fonction de leurs besoins en termes de précision, de rapidité ou de concision. Publicité, votre contenu continue ci-dessous Comparable à des outils comme ChatGPT, Gemini ou Claude, Le Chat est capable de générer du contenu ou de répondre à des questions variées, bien qu’il ne dispose pas d’un accès en temps réel à Internet, ce qui peut limiter l’actualité de ses réponses. Le Chat est disponible gratuitement avec une version payante en développement pour les entreprises. denied:data:image/svg+xml,%3Csvg%20xmlns='http://www.w3.org/2000/svg'%3E%3C/svg%3ELa création d’un compte est nécessaire pour accéder aux meilleurs modèles de Mistral AI via Le Chat© Capture d'écran Que peut-on faire avec les modèles de Mistral AI ?Comme tous les grands modèles de langage (LLM), ceux développés par Mistral AI ouvrent la voie à une multitude d'applications concrètes dans le domaine du traitement automatique du langage naturel. Grâce à leurs polyvalence et capacité d’adaptation, ces modèles peuvent être intégrés dans divers outils numériques pour automatiser, simplifier ou enrichir de nombreuses tâches, tant dans un cadre professionnel que personnel. Voici quelques exemples : ChatbotL’un des usages les plus répandus concerne les interfaces conversationnelles, telles que les chatbots. Alimentés par les LLM de Mistral, ces assistants virtuels sont capables de comprendre les requêtes formulées en langage naturel et d’y répondre de manière fluide, contextuelle et plus proche d’un échange humain. Cela permet d’améliorer considérablement l’expérience utilisateur, notamment dans les services client ou les outils d’assistance. Résumé de textesLes modèles de Mistral sont aussi particulièrement efficaces pour le résumé automatique de contenus. Ils peuvent extraire les idées essentielles de longs documents ou d’articles complexes, et produire des synthèses claires et condensées, utiles dans les secteurs de la veille informationnelle, du journalisme ou encore de l’analyse documentaire. Publicité, votre contenu continue ci-dessous Classification de textesLes capacités de classification de texte offertes par les modèles Mistral permettent d’automatiser des processus de tri et de catégorisation. Cela peut par exemple servir à identifier des spams dans une boîte email, organiser des avis clients ou analyser des retours utilisateurs selon leur tonalité. Génération de contenuEn matière de génération de contenu, ces modèles peuvent rédiger une grande variété de textes : courriels, publications pour les réseaux sociaux, récits narratifs, lettres de motivation, ou encore scripts techniques. Cette capacité à produire du texte cohérent et adapté à différents contextes en fait un outil précieux pour les créateurs de contenu, les communicants et les professionnels du marketing. Complétion et optimisation de codeDans le domaine du développement informatique, les modèles de Mistral peuvent être utilisés pour la complétion et l’optimisation de code. Ils sont capables de suggérer des extraits pertinents, corriger des erreurs, ou encore proposer des améliorations de performance, ce qui constitue un gain de temps considérable pour les développeurs. Les modèles de Mistral AI sont principalement accessibles via La Plateforme, l’espace de développement et de déploiement proposé par l’entreprise. Destinée aux professionnels et développeurs, cette interface permet d’expérimenter avec différents modèles en les adaptant à des besoins spécifiques. Grâce à des fonctionnalités comme l’ajout de garde-fous, le fine tuning sur des jeux de données personnalisés ou l’intégration dans des pipelines existants, La Plateforme s’impose comme un véritable outil de personnalisation et d’industrialisation de l’intelligence artificielle. denied:data:image/svg+xml,%3Csvg%20xmlns='http://www.w3.org/2000/svg'%3E%3C/svg%3EInterface La Plateforme de Mistral AI.© Capture d'écran Les modèles peuvent également être exploités via des services tiers tels qu’Amazon Bedrock, Databricks, Snowflake Cortex ou Microsoft Azure AI, ce qui en facilite l’intégration dans des environnements cloud déjà établis. Il est important de noter que ces modèles sont conçus pour être utilisés dans la création d’applications d’intelligence artificielle, et non comme des assistants autonomes à destination du grand public. Ceux qui recherchent une expérience plus intuitive et directe peuvent passer par Le Chat, accessible gratuitement depuis un navigateur web ou une app mobile. Comme expliqué plus haut, ce chatbot IA permet d’interagir avec les différents modèles de Mistral dans un cadre simplifié, sans nécessiter de compétences techniques particulières. Multilingue, il comprend le français, l’anglais, l’allemand, l’espagnol, l’italien, et plus encore. Le Chat MistralLe Chat Mistral est un assistant conversationnel intelligent, conçu pour offrir des réponses rapides, précises et bien documentées sur une grande variété de sujets. Accessible à la fois sur mobile et sur le web (depuis un navigateur). Téléchargements : 236 Date de sortie : 17/04/2025 Auteur : Mistral AI Licence : Licence gratuite Catégories : IA Système d'exploitation : Android, Service en ligne, iOS iPhone / iPad TéléchargerPublicité, votre contenu continue ci-dessous Antonin Leeno ClickToRead Découvrir d'autres vidéos Afficher l’article complet
-
durée de lecture : 1 minCertains se rappellent de la page sur laquelle j'avais listé les liens de téléchargement illégal (https://warriordudimanche.net/article1679/626e415fddc1f)... c'était bien mais vu que les domaines changent de plus en plus rapidement, ça devient un peu chiant à mettre à jour... Du coup, je me suis penché dessus - en quinze/vingt fois, comme d'habitude - et je vous propose une page spéciale qui regroupera les liens en question... Excellente question de nos amis du fond de la salle dont nous allons profiter de l'éveil inhabituel pour expliquer à tous les autres. La différence, c'est que cette page se met à jour comme une grande tous les jours. Elle vérifie toutes les 24 heures s'il y a eu une redirection. Si c'est le cas, elle met à jour sa base et affiche le lien en orange. Dans le cas où un domaine n'est pas redirigé mais que son adresse ne répond plus, le lien apparaît en rouge dans la liste. Le script est simple et les liens sont stockés dans un fichier json (si ça intéresse quelqu'un, je vous fournirai le zip, passez par la page contact en haut) Donc, désormais, la page de liens du blog ne sera plus mise à jour et vous retrouverez vos liens sur Afficher l’article complet
-
durée de lecture : < 1 minBonne nouvelle pour les gamers : le jeu Metro 2033 Redux est offert sur la plateforme Gog pendant une courte période. Vous pouvez le récupérer gratis en vous rendant sur cette page. Synopsis : En 2013, un événement apocalyptique dévaste le monde, manque d’éradiquer l’humanité et transforme la surface de la Terre en désert toxique. Une poignée de survivants se réfugie dans les profondeurs du métro moscovite, et la civilisation connaît un nouvel âge des ténèbres. Nous sommes en 2033. Toute une génération a grandi sous terre, et leurs villes-stations de métro luttent pour survire, tant entre elles que contre les horreurs mutantes de l’extérieur. Vous êtes Artyom. Né quelques jours avant le cataclysme, vous n’avez jamais vécu que sous terre. Mais un malheureux événement vous lance dans une mission désespérée vers le cœur du système métropolitain, où vous devrez prévenir les derniers humains de la terrible menace qui pèse sur eux. gaminggogmetro 2033 redux Afficher l’article complet
-
durée de lecture : 2 minUn grand bonjour à tous les galériens sous Windows ! Ah et tiens, rien à voir, mais avez vous remarqué que depuis la dernière mise à jour de sécurité KB5055523, il y avait un dossier vide nommé “inetpub” présent sur votre lecteur système (%systemdrive%) ? Beaucoup de gens ont conseillé ces derniers jours, de simplement le supprimer car il est traditionnellement associé à Internet Information Services (IIS), le serveur web de Microsoft, et qu’absolument personne n’a besoin d’un serveur web Microsoft dans sa vie. Mais attendez un peu ! Visiblement, il ne faudrait vraiment pas le supprimer car ce stupide dossier serait en réalité l’équivalent informatique du bouclier de Captain America… Pas très impressionnant à première vue, mais super efficace pour vous protéger des attaques des affreux cybercriminels. Mais comment c’est possible ??? Et bien, ce dossier apparemment inutile fait partie d’un correctif de sécurité contre une vulnérabilité identifiée sous le doux nom de CVE-2025-21204. Microsoft a mis à jour son document de support pour préciser que ce dossier est crucial, qu’IIS soit activé ou non sur votre machine. Concrètement, nous avons affaire à ce qu’on appelle un “link following flaw”. Cette vulnérabilité se produit quand un programme Windows tente d’accéder à un fichier par son nom, mais ne vérifie pas correctement si ce nom pointe vers un lien symbolique (sorte de raccourci avancé) qui redirigerait vers une ressource non autorisée. Dans le cas de cette vulnérabilité, un attaquant déjà présent sur votre système pourrait exploiter ce mécanisme pour manipuler des fichiers système avec les privilèges NT AUTHORITY\SYSTEM (le niveau de permission le plus élevé sous Windows), lui donnant un contrôle quasiment total sur votre machine. Alors comment un simple dossier vide peut-il nous protéger ? C’est là toute l’ingéniosité du correctif: Microsoft a créé ce dossier “inetpub” avec des permissions spéciales au niveau SYSTEM en lecture seule. Sa simple présence empêche les attaquants de créer leur propre version malveillante à cet emplacement précis, bloquant ainsi le vecteur d’attaque. En termes techniques, ce dossier agit comme un “point d’ancrage de sécurité” - sa présence avec des permissions strictes empêche l’élévation de privilèges que les attaquants pourraient tenter via le mécanisme de suivi de liens sur lequel je viens de vous briefer. Bref, ne supprimez pas ce dossier inetpub sinon le malheur s’abattra sur vous, et votre descendance. Et rassurez-vous, ce dossier ne prend quasiment pas d’espace sur votre disque (quelques octets), donc autant le laisser tranquille à méditer dans son coin. Maintenant, que faire si vous l’avez déjà shooté ? Et bien voici un petit tutoriel de restauration du dossier inetpub : Ouvrir le Panneau de configuration en mode affichage par icônes Sélectionner “Programmes et fonctionnalités” Cliquer sur “Activer ou désactiver des fonctionnalités Windows” (sur le côté gauche) Cocher la case “Internet Information Services” Cliquer sur OK et laisser Windows appliquer les changements Vérifier que le dossier inetpub est réapparu sur votre lecteur système Vous pouvez ensuite désactiver IIS si vous ne l’utilisez pas (personne ne l’utilise de toute façon) A bon entendeur… Source Afficher l’article complet
-
durée de lecture : 2 minIl y a déjà pas mal d’années que j’ai dégooglisé ma vie numérique, mais un des services dont j’ai toujours du mal à me passer c’est Youtube. Alors, comme ça fait un p’tit bout de temps que je n’ai rien posté sur Libretgeek, voici pas une… pas deux… pas trois… mais bien neuf applications pratiques pour Linux et Android, que j’utilise pour écouter et récupérer de la musique, des Backing tracks ou des vidéos, sur Youtube et plein d’autres services. C’est du libre, sans publicités et sans tracking, rien que du bonheur 👍 Pour les ordinateurs 1. Freetube Logiciel Libre disponible pour Linux, Windows et macOS. FreeTube est un client YouTube pour regarder YouTube en privé sur un ordinateur de bureau sans aucune publicité et sans tracking. Toutes vos données d’utilisateur sont stockées localement et ne sont jamais envoyées ou publiées sur Internet. Fonctionnalités : Voir les tendances. Créer des liste de lectures. Abonnement à des chaines. Accès à l’historique. Téléchargement les vidéos ou l’audio uniquement. Possibilité d’activer SponsorBlock dans le paramètres. Possibilité d’importer ou exporter vos listes de lectures, vos abonnements et votre historique. Et plein d’autres paramètres… Site officiel : Freetube 2. Tartube Logiciel Libre disponible pour Linux, Windows et macOS. Tartube est une interface graphique pour youtube-dl, yt-dlp ainsi que d’autres téléchargeurs vidéo compatibles. Fonctionnalités : Ajouter des vidéos. Ajouter des chaines. Ajouter des listes de lecture Organiser vos vidéos dans des dossiers. Téléchargement les vidéos ou l’audio uniquement. Importer vos abonnement Youtube. Exporter ou importer votre basede donées. Site officiel : Tartube 3. Shortwave Logiciel Libre disponible pour Linux. Shortwave est une application pour écouter des Web radio (+ de 50 000) et récupérer les titres joués. J’en avais déjà parlé dans un article il y a deux ans, tous les détails par ici : Shortwave, un lecteur de radio Internet pour Linux Pour les smartphones Installer le magasin d’applications F-droid sur votre smartphone, pour pouvoir les installer facilement. 1. Newpipes, Tubular et Libretube Trois applications pour Android, dans le style Freetube. Lien F-Droid : Newpipe Lien F-Droid : Tubular Lien F-Droid : Libretube 2. Rimusic et InnerTune Deux applications qui utilisent Youtube Music avec la possibilité de rechercher par chansons, par albums, par artistes et playlists. Plein d’options sympathiques, comme l’affichage des paroles, la création d’une bibliothèque d’albums, la création de liste de favoris, le téléchargement des morceaux et plein d’autres trucs cool ! Lien F-Droid : Rimusic Lien F-Droid : InnerTune 3. Radiodroid Dans le même esprit de que Shortwave, mais pour smartphone. Plus de 50 000 Web radio à écouter, avec la possibilité d’enregistrer, fini les radios FM pleines de pub et en plus on découvre plein d’artistes, top ! Lien F-Droid : Radiodroid Avec mon smartphone, connecté au Bluetooth de ma voiture lors de mes trajets, quel plaisir de pouvoir écouter ou réécouter des albums complets et découvrir ou redécouvrir plein d’artistes. 😍 Maintenant à vous de tester afin d’adopter celles qui vous conviendront le plus. Bonne écoute et Keep on Rocking 🤘 Afficher l’article complet
-
durée de lecture : 3 minJ’avoue c’est relou de sacrifier sa vie privée à chaque inscription en ligne, alors si vous cherchez un moyen de protéger votre email principal tout en gardant le contrôle sur vos données, y’a possibilité de faire un truc similaire à Hide My Mail d’Apple ou de Firefox Relay mais avec votre propre nom de domaine. Cela vous permettra de ne plus avoir une boîte mail inondée de spams ou de vous faire piquer vos emails en cas de fuite de données. Maintenant pour que cette astuce fonctionne, vous devrez avoir un nom de domaine configuré sur Cloudflare et cela va vous permettre de générer jusqu’à 200 adresses email uniques qui redirigeront automatiquement vers votre boîte principale. Bref, de quoi vous inscrire partout sans jamais exposer votre adresse personnelle. L’extension “Hide My Email with Cloudflare” est une extension Chrome open-source qui exploite une fonctionnalité méconnue de Cloudflare, l’Email Routing. Pour ceux qui ne connaissent pas, Cloudflare est une boite qui propose des services CDN et de sécurité web, avec une offre gratuite qui inclut cette fonctionnalité d’acheminement d’emails. Concrètement, ça fonctionne comme un service postal intelligent… Vous pouvez créer des adresses du style “[email protected]” ou “[email protected]” qui redirigeront automatiquement vers votre boîte mail principale. L’extension automatise tout ce processus. Elle génère des adresses aléatoires du type “[email protected]” en un clic et configure automatiquement le routage via l’API Cloudflare. Les points forts de cette solution, c’est que c’est : Client-only : toutes les opérations se font depuis votre navigateur, aucune donnée n’est envoyée à un tiers Open-source : le code est vérifiable sur GitHub Jusqu’à 200 adresses différentes (limite de l’API Cloudflare) Compatible Chrome et Firefox Aucun serveur à gérer, tout passe par l’infrastructure Cloudflare Le seul prérequis, c’est que vous devez avoir un domaine enregistré sur Cloudflare et activer Email Routing, ce qui est totalement gratuit comme je vous le disais en intro. Allez, ne perdons pas de temps et configurons tout ça : 1. Configuration du domaine sur CloudflareSi vous avez déjà un domaine sur Cloudflare, vous pouvez sauter cette étape. Sinon : Connectez-vous à Cloudflare et ajoutez un nouveau domaine Sélectionnez le plan gratuit (largement suffisant pour notre usage) Configurez les DNS records en suivant les instructions (attention à bien supprimer les anciens MX records chez votre registrar) Activez le domaine et configurez les DNS Cloudflare chez votre registrar 2. Configuration du Mail RoutingDans le dashboard Cloudflare, allez dans Email → Email Routing et cliquez sur “Get Started” Appliquez les DNS records Cloudflare proposés Ajoutez votre première adresse et votre email de destination Vous recevrez un email de vérification de Cloudflare, cliquez sur le lien pour confirmer Vérifiez que Email Routing est bien configuré et activé 3. Configuration de l’API keyCette étape est cruciale pour que l’extension puisse communiquer avec Cloudflare : Dans l’aperçu de votre domaine, notez votre Zone ID et votre Account ID Cliquez sur “Get your API token” Créez un nouveau token avec exactement les permissions suivantes : Zone.Email Routing: Edit Zone.Zone: Read Account.Account Settings: Read Sauvegardez précieusement ce token, nous en aurons besoin pour l’extension Attention, ne partagez jamais votre clé API avec un tiers. 4. Configuration de l’extensionInstallez l’extension depuis le Chrome Web Store : Hide My Email Au premier lancement, entrez les informations suivantes : Account ID (noté précédemment) Zone ID (noté précédemment) API Token (créé à l’étape 3) Email de destination (où vous voulez recevoir vos emails) Cliquez sur “Save” et voilà ! Notez que la création des premières adresses peut prendre jusqu’à une minute, le temps que Cloudflare synchronise vos paramètres. Vous l’aurez compris, le principal atout de cette solution, c’est son approche “client-only”. Contrairement aux services commerciaux qui voient passer tous vos emails (et peuvent potentiellement les analyser), ici tout se passe entre votre navigateur, Cloudflare et votre boîte mail. C’est votre propre service privé d’alias email. L’aspect open-source est également un gros plus puisque vous pouvez vérifier le code, le modifier selon vos besoins, et être sûr qu’aucune donnée n’est collectée à votre insu. Voilà… la configuration de tout ce bazar peut faire peur au premier abord, mais les bénéfices à long terme valent largement ces quelques minutes d’effort ! Afficher l’article complet
-
CasaOS : solution open source pour l'auto-hébergement simplifé - Cachem
Ldfa a posté un sujet dans Mon Wallabag
durée de lecture : 3 min CasaOS est un système open source conçu pour simplifier la gestion d’un serveur domestique, qu’il s’agisse d’un cloud personnel, d’un homelab ou de tout autre usage similaire. Intuitif et accessible, il offre une solution idéale pour centraliser et gérer vos applications en toute simplicité. Découvrons ensemble ses fonctionnalités et ses avantages… CasaOS, c’est quoi ? CasaOS permet de transformer n’importe quelle machine en Cloud personnel, offrant des fonctionnalités variées comme : Stockage et partage de fichiers ; Autohébergement ; Streaming multimédia ; Automatisation et gestion d’appareils connectés ; Installation d’applications avec une interface utilisateur intuitive. CasaOS : OS ou application ? Contrairement à ce que son nom pourrait laisser penser (OS : Operating System ou système d’exploitation en français), CasaOS n’est pas un système d’exploitation. Il s’ajoute à un système Linux existant : Debian, Ubuntu, Raspberry Pi OS… CasaOS repose sur ce système sous-jacent pour exécuter ses services et utilise Docker pour gérer les applications. Son interface utilisateur simplifiée rend son utilisation accessible à tous. Comme indiqué précédemment, le code source CasaOS est ouvert et disponible à cette adresse. Quelles sont les origines de CasaOS ? CasaOS a été créé en 2021 par IceWhale Technology, une société basée à Shanghai en Chine. Cette dernière fabrique avant tout du matériel : ZimaBoard (une carte similaire au Raspberry Pi), ZimaCube (NAS complet), ZimaBlade… Pourquoi utiliser CasaOS ? CasaOS est idéal pour les utilisateurs recherchant à centraliser leurs données personnelles tout en réduisant leur dépendance aux services Cloud publics. Avantages Description Facilité d’installation et d’utilisation Installation simplifiée via un script, accessible même aux débutants Compatibilité étendue avec Docker Intégration native de Docker pour gérer facilement des applications Personnalisation et diversité des apps App Store intégré permettant l’installation d’applications auto-hébergées comme Nextcloud, Syncthing, Jellyfin, AdGuard Home, Immich, Home Assistant… Coût réduit Open source et utilisable sur du matériel existant (Raspberry Pi ou PC), réduisant les coûts Interface intuitive Moderne et conviviale, idéale pour ceux recherchant une expérience simplifiée Comme le système est principalement basé sur Docker, il sera facile d’ajouter des applications qui ne seraient pas présentes depuis l’App Store. Cependant, CasaOS a quelques défauts/contraintes. Tout d’abord, il n’est pas autonome. Il nécessite d’avoir au préalable installé un système d’exploitation. Cela pourrait en freiner plus d’un. Ensuite, CasaOS ne sait pas gérer de RAID nativement, ce qui peut poser quelques soucis si on veut le mettre sur un NAS. Aussi, l’écosystème de CasaOS est encore trop limité et dépendant à Docker. Il n’est pas possible de faire tourner des machines virtuelles. Enfin, CasaOS est développé par une entreprise chinoise encore jeune, ce qui peut soulever des questions sur la pérennité du projet et la réactivité en cas de besoin de support. Est-ce que CasaOS peut fonctionner sur un NAS ? Oui, il peut tout à fait fonctionner sur un NAS DIY ou un NAS du marché dont le fabricant aurait laissé la possibilité d’installer un système alternatif. Il offrira une seconde vie aux NAS qui ne sont plus maintenus par leur fabricant. En synthèse CasaOS est un système flexible et économique pour ceux qui souhaitent personnaliser leur serveur à la maison sans investir dans un NAS dédié. Il offre une grande simplicité d’utilisation et de personnalisation. Cependant, il s’agit avant tout d’un système qui s’ajoute à un système d’exploitation. Certaines fonctionnalités avancées, comme le support natif du RAID ou la fiabilité optimisée des systèmes NAS traditionnels, ne seront pas directement présentes dans CasaOS. Pour tester CasaOS ou en savoir plus, rendez-vous sur le site officiel… Prochainement, nous aborderons ZimaOS… Le système d’exploitation proposé par IceWhale Technology. Afficher l’article complet -
durée de lecture : 4 minFranchement, chez Microsoft, ils abusent. Pour une raison pas si mystérieuse que ça (spoiler : ils veulent vos données), ils ont récemment supprimé le script bypassnro.cmd dans la dernière build insider de Windows 11 (26200.5516) publiée le 30 mars 2025. Ce petit script permettait tout simplement de désactiver l’étape de mise en réseau lors de l’installation, ce qui autorisait la création d’un compte local. Mais non, avoir un compte local, ça leur défrise les moustaches car un utilisateur qui échappe à leur écosystème de surveillance, c’est inacceptable ! Alors ils font tout pour vous forcer la main. Pourquoi Microsoft s’acharne-t-il à nous imposer un compte ?Officiellement, Microsoft nous vend ça comme une “amélioration de la sécurité et de l’expérience utilisateur”. Dans leurs notes de version, ils écrivent même que “ce changement garantit que tous les utilisateurs quittent le programme d’installation avec une connectivité Internet et un compte Microsoft”. Comme si c’était un service qu’ils nous rendaient ! La réalité est bien plus terre à terre : Microsoft a changé de modèle économique. Ils sont passés des licences à un modèle basé sur les abonnements et services cloud. Et pour ça, ils ont besoin de vous tracer, de collecter vos données d’utilisation, et de vous maintenir dans leur écosystème. Un compte local, c’est moins de télémétrie, moins de données collectées, et surtout moins de contrôle pour eux. Autant dire leur cauchemar. Les solutions qui fonctionnent encoreHeureusement, comme ils font toujours les choses à moitié, d’autres solutions ont vite émergé. Voici donc comment faire pour installer Windows 11 avec un compte local. En tout cas, jusqu’à la prochaine fois… Méthode 1 : La bonne vieille ligne de commandeSi vous êtes à l’aise avec les commandes, voici la méthode la plus directe : Lors de l’installation de Windows 11, à l’écran de connexion réseau, appuyez sur Shift+F10 pour ouvrir l’invite de commande Tapez exactement cette commande : reg add HKLM\SOFTWARE\Microsoft\Windows\CurrentVersion\OOBE /v BypassNRO /t REG_DWORD /d 1 /f shutdown /r /t 0 Votre PC va redémarrer automatiquement À la reprise de l’installation, vous pourrez créer un compte local sans connexion Internet obligatoire Comment ça marche ? En fait, Microsoft a supprimé le script, mais pas la fonctionnalité dans le Registre. Cette commande fait exactement ce que faisait bypassnro.cmd, mais manuellement. Méthode 2 : La commande secrète ms-cxh:localonlyUne alternative encore moins connue : Toujours à l’écran de connexion réseau, appuyez sur Shift+F10 Tapez simplement : start ms-cxh:localonly Une interface style Windows 10 va apparaître, vous permettant de créer directement un compte local Cette méthode est un peu magique : elle exploite un protocole interne à Windows qui n’était pas destiné à être utilisé directement. Votre navigateur ne supporte pas la lecture de vidéos HTML5. Voici un lien vers la vidéo.Trop fort !!Méthode 3 : MSA Patcher à la rescoussePour ceux qui préfèrent les solutions clés en main, MSA Patcher est l’outil qu’il vous faut. C’est un petit utilitaire qui restaure la fonctionnalité de bypassnro.cmd, mais en mieux. Voici comment l’utiliser : Téléchargez MSA Patcher depuis un dépôt GitHub fiable Deux options s’offrent à vous : Option A : Copiez MSAPatcher.exe et bypassnro.cmd à la racine de votre clé USB d’installation Option B : Exécutez MSAPatcher.exe pour patcher automatiquement votre clé USB Lors de l’installation de Windows 11, toujours à l’écran de bienvenue, avant de vous connecter à Internet : Appuyez sur Shift+F10 Allez sur votre clé USB (généralement D: ou E:) Exécutez bypassnro.cmd Choisissez l’option 1 pour définir la clé de Registre et contourner l’obligation réseau Redémarrez (appuyez sur Y quand on vous le demande) Après le redémarrage, vous pourrez cliquer sur “Je n’ai pas Internet” et continuer avec un compte local MSA Patcher propose même une deuxième méthode : si vous choisissez l’option 2 après avoir exécuté bypassnro.cmd, il déclenchera directement l’écran de création de compte local (fonctionne uniquement sur Windows 11 Home/Pro). L’avantage de MSA Patcher, c’est qu’il est maintenu à jour par la communauté. Quand Microsoft bouche un trou, ses développeurs en trouvent un autre. Pourquoi ce combat est important ?Ce n’est pas juste une question de préférence. À chaque compte Microsoft créé, c’est un peu plus de votre vie privée qui part en fumée. Par défaut, ces comptes activent des niveaux élevés de télémétrie, collectant des données sur pratiquement tout ce que vous faites sur votre PC. De plus, c’est une question de principe : qui doit contrôler votre ordinateur ? Vous, ou Microsoft ? Quand on commence à accepter ce genre de restrictions, on se retrouve rapidement sur une pente glissante. Rappelons qu’il y a quelques années à peine, Windows 10 vous proposait clairement l’option compte local. C’est un exemple parfait de la technique de la grenouille dans l’eau tiède : on augmente progressivement les restrictions jusqu’à ce qu’il soit trop tard pour réagir. Et à l’avenir ?Cette petite guerre entre Microsoft et ses utilisateurs n’est pas prête de s’arrêter. Je parie que dans les prochains mois, Microsoft va encore tenter de bloquer ces méthodes alternatives. Mon conseil ? Préparez dès maintenant une clé USB d’installation avec MSA Patcher ou Rufus (autre excellent outil qui permet de contourner les restrictions). Même si vous n’en avez pas besoin immédiatement, elle pourrait s’avérer précieuse pour votre prochaine installation. Et si cette tendance vous inquiète vraiment, c’est peut-être le moment d’explorer des alternatives comme Linux Mint, que j’aime beaucoup, qui respecte davantage votre liberté de choix. Merci à Laurent pour l’info. Source Afficher l’article complet