Aller au contenu
Règlement du forum ×

Tlemceni13

Membres
  • Compteur de contenus

    265
  • Inscription

  • Dernière visite

  • Jours gagnés

    6

Tout ce qui a été posté par Tlemceni13

  1. @yassine75 As-tu déclaré cela à Algérie télécom via leur page facebook https://www.facebook.com/AlgerieTelecom?
  2. Proche des dimensions d'une microSD ou d'une carte SIM, ce « mini-SSD » a ce qu'il faut pour s'imposer dans le monde des portables. Le SSD CL100 face aux plus petites pièces chinoises et étatsuniennes. Plus compacts et plus réactifs que les disques durs à plateaux, les SSD ont déjà pris une place de choix dans toutes les configurations de bureau comme sur les portables. Ces derniers pourraient toutefois accueillir très prochainement des solutions encore plus compacts, des « mini-SSD ». À peine plus grand qu'une microSD Plutôt calme ces derniers temps alors que les modèles PCI Express Gen 5 sont de plus en plus présents, le monde du SSD vit à l'heure des annonces d'une société relativement méconnue, la Chinoise Biwin. À la fin de l'été, elle avait annoncé la sortie prochaine d'un nouveau modèle de SSD, d'un facteur de forme inédit. Baptisé « mini-SSD » par son promoteur, le CL100 est effectivement un produit tout ce qu'il y a de plus compact. La bête mesure 17 millimètres de long pour 15 mm de large avec une épaisseur encore plus remarquable de seulement 1,4 mm. L'information sur le poids est ici erronnée : il est question de un gramme. ©Biwin Un format qui n'est donc pas sans rappeler celui des cartes microSD (15 x 11 x 1 mm) en un peu plus grand car en plus des puces de stockage, il est nécessaire d'intégrer un contrôleur PCI Express, comme sur n'importe quel SSD. Au moment de son annonce, Biwin ajoutait que trois capacités étaient d'ores et déjà prévues : 512 Go, 1 To ou 2 To, un peu comme sur les microSD. Des débits jusqu'à 3 700 Mo/s Aujourd'hui, il n'est donc plus question d'annonce ou plutôt d'annoncer la sortie réelle du CL100 que Biwin vient de lancer sur le marché chinois à respectivement 599 yuans (512 Go), 1 099 yuans (1 To) et 2 199 yuans (2 To). Il n'est pas encore question de disponibilité en Europe, mais la conversion directe nous conduit à des tarifs de 73 euros (512 Go), 134 euros (1 To) et 268 euros (2 To). C'est sensiblement plus cher que les produits au format M.2, mais ce n'est pas non plus scandaleux quand on pense aux avantages du nouveau format. Le CL100 ne pèse guère plus d'un gramme et il est certifié IP68. La certification IP68 est un autre atout pour ce SSD aux débits intéressants. Mieux, sa connexion PCIe Gen 4 x2 NVM 1.4 lui permet d'offrir des débits tout à fait corrects pour un SSD : Biwin parle ici de 3 700 Mo/s en lecture séquentielle et encore 3 400 Mo/s en écriture séquentielle. Évidemment, nous sommes très très loin de ce que peuvent offrir même les meilleures des cartes microSD et les SSD M.2 moyen de gamme ne sont pas plus rapides. Le CL100 est aussi nettement plus compacts que les plus petits des SSD M.2, les « 2230 » mesurent effectivement 30 mm de long pour 22 mm de large. Il faudra attendre devoir comment les fabricants de PC décident d'adopter ce nouveau format, mais un boulevard semble s'offrir à lui.
  3. @cRuStY_DZ ta moyenne est de 351Mbps/s. Ton débit réel est celui sur une seul sessions TCP sur des serveurs étrangers : Espagne, France, Italie, Allemagne, Grande bretagne, USA.
  4. @cRuStY_DZ Je suis sur brave, la vidéo apparait normalement. Voici le lien : https://www.youtube.com/watch?v=GFlw9etobAg
  5. Un pixel espion (aussi appelé balise web, pixel invisible) est une très petite image numérique transparente utilisée par certains sites web pour collecter des informations sur l'activité de leurs utilisateurs. Ce nom provient de leur dimension réduite, généralement un seul pixel pour minimiser les temps de chargement puisque l'image en elle-même n'apporte aucune information[1]. Les pixels espions sont une technologie de pistage qui va de pair avec les cookies. Un pixel espion permet à un service de statistiques ou de mesure d'audience de pister la navigation d'utilisateurs à travers différents sites web[2]. L'image en question est incluse dans les pages des différents sites utilisant le service mais elle est mise en ligne sur les serveurs du service. Un pixel espion inclus dans une page ne permet pas à lui tout seul de récolter les informations voulues. Le mécanisme est en général le suivant : Le visiteur Bob visite une page du site A qui inclut le pixel espion. Lorsque Bob demande l'image au service il envoie la plupart du temps un référent qui permet au service de savoir qu'il vient de A (ou bien l'adresse exacte de l'image contient un identifiant du site A) ; le service lui demande d'enregistrer un cookie associé à cette information (que ce soit sa valeur ou une donnée de la session qu'il représente) ; Bob visite un site B où est inclus un pixel du même serveur. Le service peut donc récupérer le cookie créé à l'occasion de la visite en A. Le service peut donc y associer la visite sur le site B. Ce mécanisme permet d'analyser la navigation d'un même utilisateur (anonyme le plus souvent) à travers les pages de différents sites web, et ce aussi longtemps que le cookie n'est pas supprimé. Source
  6. @metoo86 Ceux qui sont susceptibles de t'aider sont ceux disposant du même modèle VSOL, peut-être qu'il te faut juste une configuration ou bien un firmware spécifique qui solutionne ton souci.
  7. Une étude de Graphite vient de sortir et annonce que plus de la moitié des articles publiés sur Internet seraient désormais générés par IA. C’est fou non ? Pour arriver à cette conclusion Graphite a analysé 65 000 URLs via Common Crawl et utilisé un détecteur d’IA et c’est comme ça qu’ils ont découvert que depuis novembre 2024, les articles IA auraient dépassé les articles humains en volume. Alors en route vers l’apocalypse de l’écriture humaine ? Bon déjà, première question qui me vient c’est : Comment est-ce qu’ils ont fait pour détecter ça ? Ouais parce qu’à ma connaissance, les outils de détection d’IA, comment dire… c’est de la grosse merde en barre. C’est encore moins fiable qu’un grand modèle de langage (LLM) pas fiable. J’imagine que ce qu’ils détectent, ce sont les articles générés par IA de manière basique, donc le genre de contenu où quelqu’un a tapé un prompt vite fait et a publié le résultat sans même le relire ou un bot qui publie à la chaîne. Donc pas de travail sur le style, pas d’angle éditorial, pas de valeur ajoutée, bref, du bon gros contenu SEO produit à la chaîne pour remplir des pages et grappiller du trafic Google. Du coup, si on suit ce raisonnement, ce que l’étude nous dit vraiment c’est que 50% du contenu web actuel, c’est de la merde. Et là, je me pose une question : est-ce que ça change vraiment quelque chose par rapport à avant ? Bah ouais parce qu’avant l’IA, on avait déjà les fermes SEO, les articles écrits par des rédacteurs payés au lance-pierre qui se copient les uns les autres, les textes sans âme rédigés pour plaire à l’algorithme plutôt qu’aux lecteurs ou juste attirer le chaland pour engranger de la thune Adsense. De mon point de vue, le web était déjà rempli de contenu médiocre et l’IA n’a fait qu’industrialiser le processus. Ce qui a changé donc, c’est la quantité. On produit plus de merde, plus vite, mais cette merde existait déjà. Par contre, je ne suis pas d’accord avec la vision apocalyptique de certains. Un texte bien travaillé avec l’IA devient impossible à distinguer d’un texte humain et dans certains cas, il peut même être meilleur. C’est mon avis, mais c’est pas rare qu’un texte retravaillé à l’aide de l’IA soit plus complet, plus documenté, plus creusé, avec moins d’erreurs (si c’est bien fait évidemment). Un rédacteur web payé pour pondre 10 articles par jour n’a pas le temps d’aller au fond des choses alors qu’avec l’IA comme outil d’accompagnement, il peut rapidement explorer plusieurs angles d’un sujet, intégrer différentes perspectives, aller plus loin dans la recherche et l’analyse. Et je parle bien de contenu informatif ici, pas de création littéraire ou artistique. Parce que là, effectivement, c’est pas ouf… Mais pour expliquer un concept technique, présenter un outil, vulgariser une actu…etc., l’IA peut être un sacré accélérateur de qualité si on sait s’en servir. Je pense donc que le vrai problème, c’est la production bête et méchante qui consiste à générer du texte sans relecture, sans vérification, sans apport personnel… je trouve ça con et dangereux. Dangereux parce que les hallucinations existent et on peut vite se retrouver à propager de fausses infos. Et ce foutu style générique IA n’apporte rien au lecteur… Aucun plaisir quoi… Puis quand on sait que y’en a déjà pas mal d’entre vous qui ne lisent plus les contenus, mais se les font résumer avec Claude ou ChatGPT, je me dis qu’on gagnerait du temps de processeur si les fermes SEO / IA publiaient directement des résumés IA et basta ^^. L’étude de Graphite montre également que les contenus IA sont surtout des guides pratiques, des actus formatées, des descriptions de produits… Bref, du contenu utilitaire où l’originalité n’a jamais été le critère numéro un. Ce n’est donc pas une invasion de l’IA dans la création, mais plutôt une automatisation d’un contenu fast-actu jetable qui existait déjà par ailleurs. Ce qui est précieux dans ce contexte, c’est justement le style, la patte d’un auteur, une voix reconnaissable. C’est le genre de truc qu’un rédacteur pressé n’a jamais eu le temps de développer et qu’une IA générique ne peut pas inventer. Encore une fois c’est mon point de vue, mais les bons “rédacteurs web” sont ceux qui ont une vraie identité éditoriale et qui savent se démarquer de ce foutu “ton journalistique” qui nous endort tous… Voilà, au final, le rôle de l’auteur ou du créateur de contenu reste le même, IA ou pas IA… C’est simplement de faire en sorte que son contenu soit lu et pour ça, il faut que ce soit agréable à lire, que ça apporte quelque chose, que ça fasse grandir / réfléchir le lecteur ou que ça le divertisse également ! Bref, que l’outil soit un stylo, un clavier ou un LLM, l’objectif ne change pas. Donc si vous êtes tenté d’utiliser une IA pour la production de votre contenu, par pitié, n’automatisez rien, continuez à relire, à mettre votre “patte”, à y insérer votre réflexion et surtout, travaillez bien vos prompts pour sortir du style par défaut. Source
  8. @metoo86 Le statut O5 LOID fait référence à l'état de fonctionnement (O5, pour Operation State) d'une unité de réseau optique (ONU - Optical Network Unit), où le processus d'authentification utilise un identifiant logique (LOID - Logical Identifier). Voici ce que cela signifie : O5 (Operation State) : Il s'agit d'un état défini dans le protocole GPON (Gigabit Passive Optical Network) qui indique que votre ONU (souvent votre box Internet ou un module SFP) a réussi à se connecter physiquement et logiquement à l'OLT (Optical Line Terminal, l'équipement de votre fournisseur d'accès Internet au central). En d'autres termes, la synchronisation optique est établie et la communication de base fonctionne. LOID (Logical Identifier) : C'est un code d'enregistrement spécifique fourni par votre opérateur pour authentifier votre appareil sur son réseau. En résumé : Le statut O5 LOID signifie généralement que la connexion physique et l'authentification de l'appareil sont réussies et que vous pouvez procéder à l'établissement de la connexion Internet proprement dite (souvent via PPPoE, selon votre fournisseur). Si vous rencontrez des problèmes de connexion malgré ce statut, le problème se situe probablement au niveau des paramètres de configuration supplémentaires, tels que l'ID de VLAN ou les informations d'identification PPPoE. Le statut O5 (ou « Fake O5 ») sur un équipement VSOL (et autres OLT GPON) signifie une erreur de synchronisation OMCI où l'OLT reçoit des informations incomplètes ou incorrectes de l'ONT, le bloquant en phase de provisionnement et de mise à jour de firmware avant l'établissement d'une liaison de données normale, nécessitant souvent une réinitialisation ou un ajustement logiciel sur l'OLT ou l'ONT. Détails de l'état O5 et pourquoi il apparaît : Contexte GPON : Dans les réseaux GPON (Gigabit Passive Optical Network), l'OLT (Optical Line Terminal) communique avec les ONT (Optical Network Terminals) via le protocole OMCI (ONT Management and Control Interface) pour les configurer. Problème de synchronisation : Un statut O5 indique que l'ONT est en ligne (détecté), mais l'OLT ne peut pas compléter son provisionnement car il reçoit des données de configuration erronées ou manquantes de l'ONT (comme un logiciel obsolète ou mal configuré). Action de l'OLT : L'OLT tente de forcer la mise à jour du logiciel ou de l'information de l'ONT avant d'ouvrir la connexion GEM (GPON Encapsulation Method) complète, ce qui crée ce statut "faux" ou bloqué. Solutions possibles (selon l'expérience réseau) : Changer la version du logiciel (firmware) sur l'ONT ou l'OLT. Réinitialiser l'ONT (redémarrage physique ou logiciel) pour relancer le processus de provisionnement. Vérifier la configuration OMCI : S'assurer que les profils de service et de ligne sont correctement mappés et configurés sur l'OLT VSOL. Mettre à jour le firmware de l'ONT via l'interface de l'OLT. En bref, O5 sur VSOL indique un problème de communication initiale entre l'OLT et l'ONT nécessitant une intervention de configuration ou de mise à jour.
  9. @genio C'est donc un problème bien plus étendu que prévu, ça vient de leur installation qui doit avoir un grand souci. J'espère que ce sera résolu avec l'intervention du technicien.
  10. @genio Mais non ça ne risque rien, mais il faut débrancher la prise téléphonique RJ11.
  11. @genio Débranche la prise téléphonique et mets un tournevis sur les deux extimités du câble téléphonique noir, comme ci-dessous :
  12. @wosiris A ce stade là c'est catastrophique, décris-leur ton souci avec détails, ils t'enverront sous peu un technicien chargé de la maintenance.
  13. @cRuStY_DZ Est-ce que les sites web s'affichent rapidement, et youtube est-ce que les vidéos sont fluides et passent en HD? @yassine75 @wosiris Disposez tous vos doléances à Algérie Télécom par messagerie privée : https://www.facebook.com/AlgerieTelecom
  14. @yassine75 Pas de pertes mais un énorme goulot d'étranglement. Avec IDM tu plafonnes à 226,52Mbps/s ce qui est inacceptable pour du 600Mbps/s
  15. @genio Essaye de court-circuiter le câble VDSL puis de tout rebrancher et voir si cela améliore la synchronisation (Je fais cela en ADSL et ça marche) si après le débit synchronisé la première fois est bas répète la synchronisation plusieurs fois.
  16. @cRuStY_DZIl y a bel et bien une congestion quelque part et peut-être même des pertes de paquets avec les serveurs situés en France. Est-ce qu'avec CloudFlare_warp le surf s'améliore?
  17. @metoo86 As-tu essayé le dernier firmware? -> https://www.tripleoxygen.net/files/devices/vsol/v2802rh/firmware/custom/
  18. @wosiris Une seule connexion TCP et en dehors de l'Algérie vu que les sites qu'on consulte sont toujours en Europe ou en Amérique, le réseau national est toujours au top! Tu peux aussi faire des tests pour mesurer l'étendue des pertes de paquets : https://fr.packetlosstest.com/
  19. @wosiris C'est un problème de congestion du GPON auquel tu es connecté, fais-nous des tests de débit sur une seule session TCP https://www.speedtest.net/ à partir de 18:00.
  20. @midnights Les offres pour entreprises sont des fibres dédiées et ça coûte très cher La fibre dédiée, ou FTTO (Fiber To The Office), est une connexion internet en fibre optique exclusivement réservée à une seule entreprise, sans partage, offrant des débits symétriques (montants et descendants égaux) et garantis, allant de 4 Mb/s à 10 Gb/s.
  21. Internet est encore en panne : Cloudflare victime d’un nouveau problème mondial Une interruption de service affectant l’infrastructure de Cloudflare rend inaccessibles de nombreux sites et services populaires ce vendredi matin. Cet incident, le second en l’espace d’un mois, met de nouveau en lumière la forte dépendance de l’écosystème numérique mondial envers une poignée d’acteurs techniques. Ce vendredi 5 décembre, en début de matinée, une partie significative du trafic web mondial subit de fortes perturbations. En cause : une panne touchant Cloudflare, géant américain spécialisé dans les réseaux de diffusion de contenu (CDN) et la sécurité des infrastructures internet. Agissant comme un intermédiaire technique entre les serveurs des sites web et les internautes, l’entreprise voit ses difficultés se répercuter instantanément sur des milliers de plateformes clientes. Une maintenance technique qui interroge Selon les premières observations techniques, l’origine de cet incident serait liée à une opération de maintenance planifiée par l’entreprise américaine. Bien que Cloudflare n’ait pas encore publié de post-mortem détaillé, le scénario ressemble fortement à l’incident survenu il y a moins de trente jours. La répétition de ces pannes, apparemment déclenchées par des mises à jour internes ou des opérations de maintenance, soulève des questions sur la robustesse des procédures de déploiement (routines) de l’entreprise. Dans le secteur des infrastructures critiques, la redondance et la capacité à isoler les incidents sont primordiales. Le fait que deux événements similaires se produisent dans un intervalle aussi court suggère que les correctifs procéduraux appliqués après la précédente panne n’ont pas été suffisants pour sécuriser les opérations de ce matin. De l’IA à la santé : de nombreux services touchés L’étendue des services touchés illustre la position centrale qu’occupe Cloudflare dans l’architecture du web moderne. Les perturbations affectent des secteurs très variés : Productivité et IA : Des outils comme Notion, Microsoft Copilot, Perplexity ou encore le service de traduction DeepL sont inaccessibles, freinant l’activité de nombreuses entreprises. Services grand public : La plateforme de design Canva, le site communautaire Dealabs ou encore les services liés aux montres connectées Garmin rencontrent des erreurs de connexion. Services critiques : Plus problématique, la plateforme de prise de rendez-vous médicaux Doctolib figure également parmi les services impactés. Ce phénomène de “Single Point of Failure” (point de défaillance unique) rappelle les risques inhérents à la centralisation d’Internet, où une erreur de configuration chez un prestataire unique peut entraîner un effet domino mondial. Même Downdetector hors ligne Fait rare et révélateur de l’ampleur de l’incident, le site Downdetector, référence habituelle pour le signalement des pannes en temps réel, est lui-même victime de l’interruption de service. Utilisant vraisemblablement les services de Cloudflare pour sa propre protection et distribution, l’outil de monitoring se retrouve dans l’incapacité d’informer ses utilisateurs. Face à cette situation paradoxale, les internautes et les administrateurs système doivent se tourner vers des solutions alternatives moins dépendantes de l’infrastructure défaillante, telles que “Down for everyone or just me”, qui reste opérationnel. Un retour à la normale est attendu dans la matinée, une fois que les équipes d’ingénierie auront isolé et corrigé la configuration défectueuse. Lire la suite sur https://www.tomshardware.fr/internet-est-encore-en-panne-cloudflare-victime-dun-nouveau-probleme-mondial/
×
×
  • Créer...