L'homme perplexe

26Jan/21Off

Les défis nucléaires de la Corée du Nord

Le programme nucléaire nord-coréen est devenu un obstacle majeur au renseignement et à la couverture depuis plus de trente ans. L'ancien secrétaire aux dépenses de la défense, Perry, a décrit le problème comme «peut-être l'exercice diplomatique le plus fructueux dans le contexte de votre pays». Donald Gregg, qui était la clé de la station de la CIA à Séoul et également ambassadeur des États-Unis en Corée du Sud, a qualifié la Corée du Nord de «plus long échec de la capacité d'apprentissage du jogging dans le contexte de l'espionnage citoyen américain». Pour devenir raisonnable, Gregg faisait particulièrement référence à trop peu de bons résultats dans l'embauche de sources d'êtres humains - pas toujours des problèmes dans des revues spécifiques ou générales. Cependant, son examen souligne la question de savoir de quoi dépend la Corée du Nord. En 2005, le paiement concernant la fonctionnalité de capacité d'apprentissage des États-Unis relative aux dommages causés par les armes de taille (ADM), qui a été convoqué pour analyser l'échec de l'estimation de l'intellect fédéral de 2002 sur la fonctionnalité des ADM irakiens, a indiqué que nous comprenons «extrêmement minuscule en ce qui concerne le applications d'armes et aussi moins en ce qui concerne les motivations d'un certain nombre de nos adversaires les plus nuisibles », qui incluent vraisemblablement la Corée du Nord. En ce moment, nous comprenons beaucoup mieux le programme nucléaire de la Corée du Nord, mais c'est en grande partie ce qu'ils veulent que nous apprenions. Sur cette page, un ancien analyste et gestionnaire examine ce que la capacité d'apprentissage des États-Unis comprenait au début dans le logiciel et exactement comment les décideurs politiques ont réagi aux résultats fournis. Les inquiétudes concernant le système nucléaire de la Corée du Nord sont apparues pour la première fois au début des années 80. Le tableau de la prolifération a été totalement différent à cette époque. La guerre glaciale était néanmoins en cours, de même que la concurrence nucléaire américano-soviétique demeurait la principale inquiétude inconnue des polices d'assurance. La non-prolifération n'était pas pleinement reconnue comme étant une norme mondiale. Le Traité sur la non-prolifération nucléaire (TNP) était âgé de plusieurs années, mais certains pays cruciaux du monde entier n'étaient pas vraiment autorisés - ils incorporaient des fournisseurs chinois, la France, l'Afrique australe, l'Argentine, le Brésil et l'Espagne. Ceux d'entre nous qui ont suivi les améliorations de la prolifération nucléaire à l'époque se préoccupaient de ce que l'on appelait parfois la «sale douzaine» de pays du monde comme l'Inde, le Pakistan, l'Iran et l'Irak, mais il en était de même pour la Afrique du Sud, Argentine et Brésil. Dans certaines parties de l'Asie, les préoccupations nucléaires de la Corée du Nord ne mettaient pas beaucoup l'accent sur les connaissances ou la couverture. Dans une certaine mesure, l'accent a été entièrement mis sur Taïwan et sur la Corée du Sud. Ces endroits avaient pris la décision de s'en prendre aux armes nucléaires du milieu des années 70, répondant principalement aux préoccupations concernant la fiabilité de la sécurité des individus. Dans certains cas, les États-Unis ont acquis au début les tentatives et ont exigé un mouvement rapide et efficace pour les fermer plus bas.

Remplis sous: Non classé Commentaires
23Jan/21Off

Trump et la fin d’une certaine politique

Le public a l'impression que les politiciens sont corrompus, a déclaré Troy aux étudiants, et «généralement ils ont raison». Lorsqu'il a été élu pour la première fois au conseil municipal, en 1964, un journaliste lui a offert la chance de faire beaucoup figurer son nom dans le journal pour seulement 300 $ par semaine. (Un natif d'une telle culture médiatique est susceptible de conclure qu'il est parfaitement normal, par exemple, d'utiliser un journal pour payer une star du porno qui menace de rendre public des allégations de liaison.)

Et la corruption était endémique. «Il y a eu tellement de cas où des pots-de-vin m'ont été offerts - que je n'ai jamais pris - que, même si je ne peux pas vous apprendre la différence entre le bien et le mal, j'ai l'obligation de vous aider à mieux comprendre», a déclaré Troy. Le tarif en vigueur pour les postes de juge, a-t-il expliqué, était de 35 000 dollars pour un poste de tribunal inférieur et de 75 000 dollars pour la cour suprême de l’État, la cour de première instance de New York. Il a quitté la classe avec cette pensée: «Si vous allez entrer dans la vie publique, et que vous êtes un jeune homme avec une famille nombreuse, il y a beaucoup de dettes. Il faut un super homme ou une femme pour dire non. »

Personne n’appliquait les lois? Eh bien, le procureur de district du comté de Queens à l'époque était Thomas J. Mackell. En 1972, les enquêteurs fédéraux ont annoncé qu'ils recherchaient neuf procureurs adjoints de district dans son bureau pour investir dans un stratagème de Ponzi et dissimuler le revenu de leurs impôts. Le scandale qui s'ensuivit aboutira finalement à la démission de Mackell, à son inculpation et à sa condamnation pour avoir bloqué les poursuites contre l'exploitant du stratagème. (La condamnation a par la suite été rejetée en appel.)

New York était une ville rude et violente. Les homicides ont augmenté de 30 pour cent en 1971, à 1650. Quatorze officiers sont morts dans l'exercice de leurs fonctions; 11 d'entre eux ont été abattus.

Mais même si les résidents avaient désespérément besoin de la protection de la police, ils avaient peu de raisons de faire confiance à la police. Les agents ont organisé une grève sauvage de cinq jours en janvier. En octobre, la Commission Knapp a entamé des audiences publiques sur la corruption policière et un défilé de témoins a déclaré que les résultats et les shakedowns étaient endémiques dans la police.

Remplis sous: Non classé Commentaires
21Jan/21Off

Trop dépendants de Google

Google a subi une panne dans le monde entier, avec des problèmes notés dans les solutions de l'entreprise, telles que Gmail, Google Schedule et YouTube. À partir d'environ 11 h 50 GMT, les échecs se sont manifestés pour avoir un impact sur la majorité des solutions de Google, à l'exception de la recherche, qui fonctionnait largement sans être affectée. Indépendamment de la nature commune des pannes, les systèmes automatiques de la société n'ont noté aucun problème pour les services pendant la première demi-heure, à travers chaque consommateur et ses outils cloud pour les développeurs. À 12 h 25, l'entreprise a publié une mise à jour indiquant «Nous sommes conscients d'un problème… affectant une majorité d'utilisateurs. Les clients concernés ne peuvent pas accéder aux [services des moteurs de recherche]. » L'interruption était le résultat d'un échec des ressources d'autorisation de l'entreprise, a déclaré un porte-parole de Google, qui gèrent la manière dont les clients se connectent aux solutions gérées par chaque moteur de recherche et développeur tiers. «Aujourd'hui, à 3 h 47, heure du Pacifique, Google a subi une panne du programme d'authentification pendant environ 45 minutes en raison d'un problème de quota de stockage interne», agence site e-commerce Lyon a déclaré le porte-parole. «Les services nécessitant que les clients se connectent ont connu des prix d'erreur plus élevés pendant cette période. Le problème du programme d'authentification a été résolu à 4 h 32, heure du Pacifique. Toutes les solutions sont effectivement restaurées. Nous nous excusons auprès de toutes les personnes concernées, nous allons donc procéder à un examen complet du bâton pour nous assurer que ce problème ne pourra plus se reproduire à l'avenir. » Selon le porte-parole, la raison fondamentale de l'erreur était que les outils internes de la société ne permettaient pas de consacrer suffisamment d'espace de stockage aux solutions qui gèrent les autorisations. Lorsque cet espace de stockage est chargé, l'appareil doit être instantanément rendu plus facilement disponible; au lieu de cela, il semble que ce ne soit pas le cas, ce qui signifie que le système s'est écrasé, comme le fait un ordinateur de bureau dans le cas où il essaie de fonctionner avec un disque dur complet. Cet échec a fait en sorte que les outils qui ne fonctionnent pas sans connexion, tels que Gmail et Google Schedule, soient totalement inaccessibles. Les services de la troisième célébration qui utilisent le système d'authentification de Google ont continué d'être disponibles pour les utilisateurs qui étaient actuellement connectés, mais ont échoué lorsque les utilisateurs ont tenté de se connecter ou à partir du service. Des services tels que You tube ont entièrement échoué pour les utilisateurs qui étaient déjà connectés à un compte Google, mais qui pouvaient être atteints dans un paramètre de «navigation privée» pour pouvoir voir la version déconnectée du site, qui continue à fonctionner. La panne a gravement perturbé les solutions pour de nombreux lieux de travail. Google Suite, parmi les services concernés, traite non seulement de la communication par e-mail, mais également de la messagerie intra-entreprise via les solutions Chat and Fulfill, et du travail réel via Google Docs, Sheets et Slides. Même ceux qui utilisent d'autres services de problèmes qualifiés. Certains employés dépendant de Slack, par exemple - l'application de chat appartenant à Salesforce - ne pouvaient parler qu'avec des collègues qui étaient actuellement connectés au moment de l'interruption, à moins qu'ils n'aient configuré un nom d'utilisateur et un mot de passe sur Slack uniquement. Pour tous ceux qui travaillent à domicile, la panne a eu un impact sur les services Wise House de Google, tels que les haut-parleurs intelligents pour la maison des moteurs de recherche, ainsi que les thermostats et les détecteurs de fumée Nest. Bien qu'ils fonctionnent dans un environnement sûr, les utilisateurs ne sont pas en mesure d'accéder aux services via une application pour modifier leurs configurations. Les problèmes généralisés ont amené beaucoup de personnes à mettre en évidence les risques de concentration numérique, dans laquelle une interruption dans une seule entreprise supprime une part substantielle de l'exercice sur Internet. Adam Leon Smith, membre du BCS, le Chartered Institute for IT, a déclaré: «Les gens sont assis la nuit dans l'incapacité d'allumer leur éclairage contrôlé par Google Home, mes deux dernières conférences ont déjà été incapables d'utiliser les diapositives préparées telles quelles. stocké dans les moteurs de recherche Glides. Notre dépendance à la technologie a beaucoup augmenté, mais les sommes dépensées pour la fiabilité, le dépistage et la qualité n'ont pas augmenté en parallèle. De nombreuses entreprises vont revoir leurs [contrats] avec Google de nos jours et se rendre compte que leur entreprise est déterminée par une pile totalement indépendante de leur direction. » L'interruption des moteurs de recherche fait suite à un dysfonctionnement substantiel d'Amazon. com fin novembre. Là, le centre d'information de la société en Virginie est tombé en panne pendant près de 90 minutes, ce qui n'a pas été seulement le cas d'Amazon. com uniquement pour la plupart des clients américains, mais également de nombreux autres services et sites Web qui s'appuient sur AWS, la branche de traitement cloud de l'entreprise. Des entreprises telles que le site Web de partage de photos Flickr, le service de podcasting Anchor, les services de streaming Internet Roku et l'entreprise de logistique Shipt avaient été touchées par cette interruption. Il en était de même pour un certain nombre de services Wise Home, tels que Roomba, qui ne permettaient même pas à certains de passer l'aspirateur dans leur maison en attendant que leur fonction revienne sur Internet.

Remplis sous: Non classé Commentaires
6Jan/21Off

L’internet est effectivement peuplé de robots

Magasinez autour de vous, SEO Inside les gens du Web. Les robots d'exploration. Ils sont partout. La plupart des visiteurs ne sont pas des humains, mais ils sont alternativement des robots ou des plans créés pour effectuer des tâches programmées. Ce sont les abeilles employées de votre Internet, ainsi que les hommes de main. Certains robots d'exploration vous aident à actualiser votre offre Facebook ou à déterminer comment classer les résultats finaux de la recherche sur Internet; d'autres robots se font passer pour l'humanité et exécutent des attaques DDoS écrasantes. Le total, les robots - négatifs et positifs - sont responsables de 52 pour cent du trafic du site Web, par rapport à un enregistrement alternatif de la société de sécurité Imperva, qui concerne un examen annuel du processus des robots en ligne. La statistique de 52% est significative car elle représente une pointe de la balance étant donné que le record de l'année dernière, qui identifiait les visiteurs individuels ont dépassé le trafic de robots la première fois depuis au moins 2012, lorsque Imperva a commencé à suivre l'exercice de robots en ligne. Désormais, la revue la plus à jour, qui dépendra d'une évaluation de près de 17 milliards de dollars de sessions de sites Internet sur 100 000 domaines, affiche que les robots d'exploration sont de retour au sommet. En dehors de cela, mais les robots dangereux détiennent l'avantage sur les robots d'assistance, qui ont été responsables de 29% et 23% de tout le trafic du site Web, respectivement. «La statistique la plus alarmante de ce document est également l'une des foules les plus constantes qu'il observe», écrit Igal Zeifman, directeur marketing d'Imperva, dans un article sur l'analyse. «Pendant cinq ans auparavant, chaque visiteur du site Internet sur trois était un robot d'attaque.» Placé d'une manière différente: plus de 94 pour cent des 100 000 domaines contenus dans l'enregistrement ont subi une ou plusieurs attaques de robots au cours des 90 jours ouvrables examinés par Imperva. Les sites qui sont nettement moins favorisés par les êtres humains - tel qu'évalué par le trafic - ont tendance à attirer beaucoup plus de déplacements des robots d'exploration. "Simplement réglé", a écrit Zeifman, "de bons robots exploreront votre site et de terribles robots essaieront de le pirater, quelle que soit sa notoriété avec les humains. Ils vont même continuer à accéder à un site Web en l'absence de tous les visiteurs humains. » Bien que les robots aimeraient essayer des sites Internet même si les humains ne le sont généralement pas, l'action des robots est susceptible de correspondre aux actions des hommes en ligne. Par exemple, le robot d'aide en ligne le plus animé est ce que l'on appelle un «récupérateur de flux», et c'est le type de robot qui aide à actualiser le festin Fb d'une personne sur l'application de téléphonie mobile du site. L'explorateur de flux de Facebook, à lui seul, comprenait 4,4% du trafic en ligne, sur la base de cette déclaration - ce qui se trouve être peut-être spectaculaire, mais pas tout à fait inattendu. Fb est en fait un monstre, et son trafic de robots l'illustre bien. Dans l'ensemble, les récupérateurs de flux ont représenté plus de 12% du trafic du site Web l'année dernière. Les robots des moteurs de recherche en ligne, les araignées d'extraction d'informations industrielles et les robots de vérification de sites Internet sont probablement les autres robots d'exploration utiles que vous avez tendance à expérimenter en ligne. (Autrement dit, si vous prenez en compte l'assortiment de vos données personnelles pour promouvoir des finalités précieuses.) Les robots qui obtiennent des informations fonctionnent de manière invisible, tandis que les autres robots sont plus simples à repérer. En réalité, les robots et les personnes se confondent souvent. Les spambots apparaissent dans les sections de commentaires et les robots d'exploration de Twitter obstruent les délais des gens avec tout le reste, du marketing à la campagne politique, à l'activisme social, en passant par des absurdités. Ces types de robots d'exploration ne sont généralement pas agréables, mais ils ne sont pas vraiment dangereux. Pour les vrais méchants, nous utilisons des robots d'indexation utilisés pour les attaques DDoS. Ils comprenaient environ 24% du trafic en ligne global l'année dernière. Les principaux contrevenants de cette classe comprenaient le logiciel malveillant Nitol, un robot appelé Cyclone conçu pour imiter les excellents robots d'exploration de Google, et le malware Mirai, un virus informatique qui a provoqué des interruptions massives du Web aux États-Unis en octobre. Parmi les autres mauvais robots à gérer, citons les grattoirs de détails non autorisés, les spambots et les récupérateurs à la recherche de vulnérabilités de protection à utiliser. Collectivement, ils représentaient environ 5% du trafic en ligne. Et bien qu'Internet soit principalement constitué de robots d'exploration, nous commençons tout juste à voir le Bot Era acquérir la condition. Sur la base de la société de recherche sur les marchés CB Observations, plus d'une douzaine de startups de robots soutenues par le capital d'entreprise ont augmenté leur sphère de financement initiale l'année dernière.

Remplis sous: Non classé Commentaires