L’air chaud dans la montgolfière


Influencés par un arc-en-ciel d’orbes ambulantes portées par des jets enflammés et côtoyant la brise d’Albuquerque, Kai et Hunter Wilson se dépêchent de parapher leur montgolfière particulière. Pas un véritable ballon chauffant, évidemment. Les jeunes frères peuvent travailler dans un environnement en altitude, une petite gondole arrêtée sous un ballon d’hélium dans le 7-11 Balloon Discovery Center, exactement là où le trafic ciblé vers la Albuquerque Worldwide Balloon Fiesta peut tester les concepts technologiques propulsant la montgolfière. « Nous arrivons chaque année depuis environ 7 années, ce qui est certainement ma partie préférée, » déclare leur mère, Marina Wilson, faisant signe pour le ballon en lévitation au-dessus de l’esprit de son fils. « Cette connexion avec tous les jeunes en vaut la peine. » Depuis près de 50 ans, la fête annuelle des montgolfières a captivé des millions de visiteurs du site Web du Territoire de l’enchantement pour voir la plus grande ascension au monde de montgolfières. Dernièrement, la fiesta est devenue un événement académique, enseignant aux invités les sciences de l’atmosphère – un sujet difficile à comprendre, disent les scientifiques, montgolfière Niort mais qui est certainement de plus en plus vital que vous comprenez au milieu du changement climatique. «[Le milieu de l’invention] découle de l’ensemble de l’approche académique qui consiste à essayer d’intéresser les enfants à la recherche et de s’assurer qu’ils savent qu’il y a certainement de la science derrière le ballon», affirme Barbara Fricke, membre du conseil d’administration de la fiesta. Elle dit que le milieu s’est beaucoup élargi récemment. «Auparavant, c’était un ballon plus ancien que les gens pouvaient mettre sur le tas, et maintenant ils essaient d’enseigner», explique Mme Fricke. Pour fêter les festivités, les aviateurs ont lancé des ballons dans plus de 100 universités élémentaires de la région, ajoutant des individus à la science juste derrière le ballon. En plus de la fête de 9 jours, les clients peuvent visiter le centre révolutionnaire pour savoir exactement ce qui rend Albuquerque parfait pour la montgolfière. À l’intérieur du centre de recherche contextuel, les visiteurs cataloguent des expériences dans des manuels de «passeport». L’année dernière, la tente a commandé 10 000 passeports, affirme George Carrillo Jr., membre du personnel. Ils se sont épuisés avant la fin de la semaine. «La majeure partie [des invités] sont des enfants», explique M. Carrillo, «mais y compris les adultes reviennent et disent:« Nous avons beaucoup réfléchi à la recherche scientifique ».» Un grand nombre de spectateurs tiennent un air collectif comme test ballon monte pour tester les conditions de voyage pour d’innombrables ballons couchés mou dans la pelouse. Parce que le soleil grandissant commence à convertir la pastèque de Sandia Hills en rose, le ballon d’essai signale au personnel au sol de lever un drapeau vert. Les amis poussent un soupir de réduction – leur système d’alarme de réveil à 5 ​​heures du matin (ou avant) en valait le coût. Les ballons voleront aujourd’hui. Les pilotes d’avion vont simplement monter dans des problèmes idéaux. Heureusement pour les montgolfières locales, la vallée du Rio Grande accueille un rare confluent de vent, de températures et d’aridité chaque octobre, offrant à Albuquerque le surnom de «l’argent du monde en montgolfière». Étant donné que les pilotes d’aéronefs en ballon ne pouvaient gérer que la direction verticale du ballon, ils comptent sur les courants de vent pour aller horizontalement. Les ballons commencent juste après le lever du soleil, une fois que l’atmosphère est froide, le ciel est apparent, le vent est calme et ils possèdent également la meilleure probabilité de localiser la tendance météorologique appelée paquet Albuquerque. « Il y a ce flux sanguin que les aéronautes aiment vraiment et qui ne s’installe qu’une ou deux fois tout au long de la période de la fête des ballons », déclare David Gutzler, climatologue à l’université ou au collège du dernier Mexique à Albuquerque.



Une exigence de 25 % de fonds propres pour les banques ?


Il est largement admis que la protection des banques par les pouvoirs publics a contribué à la crise financière, ce qui a conduit à des propositions visant à exiger des banques qu’elles financent une part plus importante de leurs portefeuilles par des fonds propres plutôt que par des dettes – obligeant ainsi les actionnaires à absorber les pertes au lieu des contribuables. Cette colonne fait valoir que ce sont les ratios de fonds propres par rapport au risque des actifs qui importent, et non les ratios de fonds propres en soi. Bien que des exigences plus élevées en matière de fonds propres pour les banques puissent être souhaitables, les coûts de la réduction de l’offre de prêts devraient être pris en compte.
Le professeur Allan Meltzer a dit en plaisantant que le capitalisme sans échec est comme une religion sans péché ». Si certaines entreprises sont protégées de la faillite lorsqu’elles ne peuvent pas payer leurs factures, la concurrence est faussée et favorise les entreprises inefficaces et protégées. Les banques dont les dettes sont garanties par l’État bénéficient d’un avantage injuste qui leur permet de répartir les fonds de manière inefficace, de prendre des risques inconsidérés aux dépens des contribuables et de gaspiller des ressources qui seraient mieux utilisées par des entreprises ne bénéficiant pas d’une telle protection.
La crise financière de 2007-2009 n’est pas la première à illustrer le fait que les systèmes bancaires protégés ont tendance à exploser, imposant des pertes énormes aux contribuables qui doivent payer la facture. Rien qu’au cours des trois dernières décennies, plus d’une centaine de crises bancaires majeures ont eu lieu dans le monde (Laeven et Valencia, 2012). Aucun sujet d’économie financière n’a fait l’objet d’un consensus plus clair parmi les chercheurs que la proposition selon laquelle la protection des banques par les pouvoirs publics a contribué à la récente vague de faillites bancaires coûteuses dans le monde – des faillites d’une ampleur sans précédent.
Le récent ouvrage d’Anat Admati et Martin Hellwig, The Bankers’ New Clothes (Princeton 2013), propose de forcer les banques à maintenir une part beaucoup plus importante de leur financement sous forme de capitaux propres plutôt que de dettes, de sorte que les actionnaires des banques plutôt que les contribuables supportent la majeure partie ou la totalité du risque de baisse des pertes bancaires. Dans leur zèle bien intentionné pour démontrer à quel point il serait bénéfique, simple et sans coût d’imposer une augmentation spectaculaire des ratios de fonds propres des banques, Admati et Hellwig surestiment les avantages et sous-estiment les coûts associés à la réforme proposée.
Ratios de fonds propres comptables contre les véritables ratios de fonds propres pondérés en fonction des risques
Admati et Hellwig affirment que pour obtenir une augmentation crédible de la proportion de fonds propres des banques, il suffit d’augmenter les exigences réglementaires minimales pour le ratio de la valeur comptable des fonds propres par rapport aux actifs. Si seulement c’était aussi simple, mais ce n’est pas le cas ; l’augmentation du ratio de la valeur comptable des capitaux propres au sens comptable n’augmente pas nécessairement les véritables ratios de capital des banques, comme je l’ai soutenu dans mon travail récent (Calomiris 2013). Les bilans bancaires ne rendent pas compte d’une grande partie des pertes économiques que les banques peuvent subir. En outre, les pratiques comptables peuvent dissimuler l’ampleur des pertes sur prêts, et les régulateurs désireux d’éviter les crises de crédit sont souvent complices de cette situation. Il en résulte que les véritables ratios de fonds propres des banques peuvent être bien inférieurs à ce que leur valeur comptable indique. En outre, les choix des banques en matière de risque importent, et pas seulement leurs fonds propres. L’approche de Bâle sur la pondération des risques des actifs et l’approche plus simple préconisée par les auteurs (qui abandonnerait toute pondération des risques en faveur d’une simple exigence de fonds propres par rapport aux actifs) ont toutes deux un défaut commun : elles encouragent les banques à poursuivre des augmentations cachées du risque des actifs.
Pour toutes ces raisons, l’augmentation des ratios de fonds propres requis ne se traduit pas nécessairement par une réduction du risque de faillite bancaire. Cela ne signifie pas que les ratios de fonds propres ne sont pas pertinents, mais seulement que le fait d’exiger une augmentation des fonds propres comptables ne se traduit pas, en soi, par une augmentation des fonds propres réels. De même, et surtout, des exigences plus élevées en matière de fonds propres ne garantissent pas que les banques auront des fonds propres plus élevés par rapport à leur risque, ce qui est l’objectif essentiel de la réforme réglementaire envisagée par Admati et Hellwig.
Admati et Hellwig soutiennent également que l’augmentation du ratio de financement par capitaux propres dans la structure du passif des banques a peu ou pas de coûts sociaux. Ils rejettent la possibilité que des exigences plus élevées en matière de fonds propres pour les banques puissent être socialement coûteuses comme une bête noire… aussi insignifiante que les nouveaux vêtements de l’empereur dans le conte d’Andersen ». Les auteurs poursuivent en disant : « Pour la société, il y a en fait des avantages significatifs et essentiellement aucun coût à des exigences de fonds propres beaucoup plus élevées ». Une telle politique permettrait de résoudre le conflit fondamental entre ce qui est bon pour les banques et ce qui est bon pour l’économie au sens large. »
Coût des fonds propres par rapport aux rendements corrigés du risque
Ces déclarations ne représentent pas les résultats de décennies de recherche englobant des dizaines de contributions théoriques et empiriques dans la littérature bancaire et financière des entreprises. Le principal tour de passe-passe académique effectué par les auteurs, qui est à la base de ces déclarations, consiste à concentrer l’attention uniquement sur les rendements ajustés au risque attendus par les investisseurs lors de l’examen des coûts ajustés au risque pour les banques de leurs choix en matière de structure du capital. Admati et Hellwig assimilent à tort les deux. Le coût des fonds propres, affirment les auteurs, correspond essentiellement aux rendements que les sociétés doivent fournir aux actionnaires pour justifier l’argent qu’elles ont reçu d’eux ». Mais pour les banques qui émettent ces capitaux propres, il est presque certain qu’il y a d’autres coûts (et avantages) importants associés aux choix de structure du capital qui ne sont qu’indirectement liés aux rendements attendus et reçus par les investisseurs. C’est pourquoi le coût de l’émission d’actions pour une banque et le rendement attendu par les investisseurs en actions qui achètent la nouvelle offre ne sont généralement pas les mêmes.
Il a été démontré que les différences entre les rendements attendus par les investisseurs et les coûts de financement des entreprises impliquent qu’il existe, en général, une combinaison optimale de dettes et de capitaux propres pour chaque banque (ou toute autre entreprise), qui reflète une variété de considérations. Une catégorie de modèles se concentre sur l’effet de la déductibilité des paiements d’intérêts sur la combinaison optimale de dettes et de capitaux propres – les entreprises mettent en balance l’avantage fiscal de la dette et la valeur préservée en détenant plus de capitaux propres et en limitant ainsi le risque de détresse financière. Une autre catégorie de modèles de « signalisation » considère comment l’émission d’actions peut avoir des effets négatifs sur les perceptions du marché des opportunités d’investissement des entreprises, et conduire les émetteurs à éviter les offres d’actions plus qu’ils ne le feraient autrement. Dans une autre classe de modèles encore, le choix de la bonne combinaison de dettes et d’actions conduit à des transferts efficaces de contrôle aux créanciers dans certains états du monde, ce qui encourage également la diversification du portefeuille et la révélation véridique des résultats de l’investissement, ce qui réduit les coûts de financement. Dans une quatrième catégorie de modèles, la bonne combinaison de capitaux propres et de dettes peut inciter à une gestion plus efficace des risques, ce qui réduit également les coûts de financement. Enfin, dans le contexte bancaire, l’émission de titres de créance à court terme et à très faible risque, combinée à des fonds propres suffisants, peut procurer des avantages non pécuniaires en termes de liquidité aux détenteurs de la dette (en particulier les déposants), ce qui augmente la demande de dette et permet aux banquiers d’économiser sur les coûts de financement.
Coûts des exigences plus élevées en matière de fonds propres des banques
La discussion d’Admati et Hellwig sur les coûts de financement des banques et la structure du capital ne reconnaît que deux avantages du financement par l’emprunt : la déductibilité fiscale des intérêts et les distorsions du filet de sécurité découlant des garanties gouvernementales qui réduisent effectivement les coûts de la dette subordonnée des banques ainsi que les dépôts. Ils soutiennent que l’élimination de ces avantages du financement par l’emprunt est souhaitable. Cette affirmation néglige des preuves empiriques substantielles qui vont dans le sens d’autres influences, comme les modèles de signalisation. Mais même si le traitement fiscal privilégié de la dette et les subventions au titre du filet de sécurité étaient les seuls facteurs favorisant le financement par l’emprunt, et même si l’on pouvait affirmer, à partir d’une analyse coûts-avantages sociaux, qu’il serait souhaitable de supprimer les subventions au titre du filet de sécurité et la déductibilité fiscale des intérêts, il ne s’ensuit pas que cela ne coûte rien.
Une implication importante des différents modèles de structure optimale du capital est que le fait de forcer les banques à augmenter leur ratio de fonds propres par rapport à leurs actifs réduira généralement la volonté des banques de prêter. Un grand nombre d’études ont montré que, lorsque les banques doivent augmenter leur ratio fonds propres/actifs, elles choisissent souvent de le faire en réduisant les nouveaux prêts, ce qui évite de devoir lever de nouveaux fonds propres et les coûts élevés qui y sont associés. Par exemple, une étude récente de la réaction de l’offre de prêts aux augmentations des ratios de fonds propres requis au Royaume-Uni indique qu’une augmentation d’un point de pourcentage des ratios de fonds propres requis réduit l’offre de prêts aux entreprises non financières nationales d’environ 7 % (ce qui implique une élasticité de l’offre de prêts d’environ 0,7 négatif).
La réduction de l’offre de prêts qui résulte de l’augmentation des ratios de fonds propres n’est pas seulement un coût ponctuel. Un ratio de fonds propres plus élevé signifie qu’à mesure que le système bancaire se développe, un pourcentage plus important des fonds propres des banques devra être levé à l’extérieur plutôt que par la rétention des bénéfices. Comme il est coûteux de mobiliser des capitaux extérieurs (en grande partie à cause des coûts de signalisation et d’agence mentionnés plus haut), les banques seront confrontées à des coûts de financement plus élevés en permanence, ce qui réduira en permanence l’offre de prêts par rapport à un monde où les exigences en matière de ratio de fonds propres sont plus faibles.
Trouver la bonne exigence de fonds propres bancaires
L’existence de coûts sociaux associés à des exigences de fonds propres plus élevées n’exclut pas le caractère souhaitable d’une augmentation substantielle de ces exigences. En effet, la plupart des économistes (moi y compris) seraient prêts à accepter une certaine réduction de l’offre de crédit en échange des avantages d’une plus grande stabilité financière, en particulier compte tenu des faibles ratios de fonds propres que les banques maintiennent actuellement.
Quel est le bon ratio de fonds propres à cibler, et sur quoi repose le ratio de 25 % des fonds propres par rapport aux actifs proposé par Admati et Hellwig ? Après tout, s’ils croyaient vraiment à leur argument selon lequel l’augmentation du ratio de fonds propres ne peut jamais avoir de coût, alors pourquoi ne pas préconiser un ratio de fonds propres de 100% ?
Le principal fondement de la recommandation d’Admati et Hellwig d’un ratio de 25% est leur opinion selon laquelle l’expérience historique montre qu’avant la protection du filet de sécurité, les banques maintenaient ce niveau de ratios de fonds propres. Mais Admati et Hellwig sont trop désinvoltes lorsqu’ils font ces comparaisons historiques, et ils omettent de noter certaines différences importantes entre les banques d’alors et d’aujourd’hui. Les ratios de fonds propres des banques, tant aux États-Unis qu’à l’étranger, ont varié considérablement dans le passé et n’ont généralement pas atteint 25 % des actifs. Certains des systèmes bancaires les plus stables – celui du Canada, par exemple – ont eu des ratios de fonds propres relativement faibles. Les faibles ratios de fonds propres des banques canadiennes à succursales nationales reflétaient la plus grande diversification de leur portefeuille et d’autres caractéristiques réduisant le risque, contrairement aux banques à bureau unique (unités) beaucoup plus risquées aux États-Unis. Les ratios de fonds propres des banques américaines ont varié de façon spectaculaire au fil du temps, et d’une manière qui a clairement reflété les changements dans le risque de leurs actifs. Les ratios de fonds propres par rapport au risque des actifs sont l’attribut clé de la réglementation prudentielle, et non les ratios de fonds propres en soi. L’utilisation de simples ratios d’équité historiques d’un certain exemple passé comme référence, sans tenir compte du risque, peut considérablement surestimer ou sous-estimer la mesure dans laquelle les ratios d’équité actuels des grandes banques mondiales devraient être augmentés.



Aux origines de l’aviation


Avant même de voler, le premier problème qui s’est posé à l’homme désireux d’imiter les oiseaux a été celui de quitter le sol. La légende cède peu à peu la place à l’histoire et, après les livres saints de toutes les religions, dont certains sont de véritables « volières », les textes des chroniqueurs apportent quelque précision sur les « mécanismes ingénieux » capables de faire voler l’homme. Aristote et Galien se penchent sur le problème, Aulu-Gelle décrit la fameuse colombe d’Archytas et les poètes célèbrent le malheureux Icare, tandis que les mathématiciens s’intéressent davantage à son père, l’inventeur Dédale.

Accrochés à des oies, des condamnés à mort sont précipités du haut des falaises ; d’autres, des ailes sur le dos, s’élancent de points élevés, tours et collines, font quelques battements et tombent ou atterrissent un peu plus loin et un peu plus bas que leur point de départ. Beaucoup y laissent leur vie. L’histoire retient parfois leur nom.

Vers 1500, Léonard de Vinci, le premier, étudie scientifiquement le problème. Des pages et des pages d’écriture, plus de quatre cents dessins l’attestent : le Florentin a pressenti l’hélicoptère, le parachute. On dit même qu’il aurait essayé un planeur en vraie grandeur.

Au XVIe siècle, l’Anglais Bate introduit en Europe la mode du cerf-volant, empruntée aux anciens Chinois. Guidotti, Burattini, Allard sont les héros de tentatives malheureuses. En 1673, on signale un serrurier du Mans, Besnier, qui, avec des surfaces à clapets, aurait réussi à voler. En 1742, le marquis de Bacqueville aurait parcouru quelque trois cents mètres au-dessus de la Seine, à Paris.

En 1783, la découverte de l’aérostat par les frères Montgolfier suscite un engouement tel pour les « globes » que les recherches sur les appareils plus lourds que l’air seront suspendues et vont prendre un certain retard. Blanchard, Resnier de Goué, Degen, Berlinger (deux Français, un Suisse, un Allemand) proposeront bien quelques solutions et tenteront même quelques expériences en vol, mais il faudra attendre la fin du XVIIIe siècle pour trouver celui que les Anglais ont appelé « l’inventeur de l’aéroplane », sir George Cayley. En 1796, reprenant les travaux des Français Launoy et Bienvenu, il construit un hélicoptère. En 1799, il grave sur un disque d’argent la représentation des forces aérodynamiques sur un profil d’aile. En 1808, il dessine un « ornithoptère » à l’échelle de l’homme. En 1809, il construit un planeur qui vole (sans passager). En 1843, il dessine le premier modèle de « convertiplane » et, en 1849, construit un planeur qui aurait été expérimenté avec un passager.

Vers la même époque, deux autres Anglais, Henson et Stringfellow, furent bien près de trouver la solution. Si l’Ariel, dont nous possédons de très nombreuses gravures publiées à l’époque, ne fut jamais construit, il n’en reste pas moins que Stringfellow, continuant les travaux de Cayley et de Henson, fit voler pour la première fois dans l’histoire un modèle réduit d’aéroplane à vapeur.

C’est en 1856, avec le Français Jean-Marie Le Bris, que les premiers essais de planeur avec passager ont lieu, et c’est encore avec lui, en 1868, que sera prise la première photographie d’un « plus lourd que l’air », en vraie grandeur.

En 1862, on aura noté l’invention du mot « aviation » par Gabriel de La Landelle, le lancement de la campagne de la « sainte hélice » par Nadar et la construction, par Ponton d’Amécourt, d’un hélicoptère à vapeur, première application de l’aluminium au plus lourd que l’air.

Depuis Cayley, l’attention des chercheurs a été attirée sur l’importance des données aérodynamiques. Un pas décisif sera fait dans ce domaine par un autre Anglais, Wenham, Vol L-39 qui construira le premier « tunnel » (on dira « soufflerie » par la suite) pour l’expérimentation des maquettes. La notion d’essai systématique apparaît, remplaçant bientôt les tâtonnements.

En France, Pénaud et Gauchot proposent en 1876 un aéroplane avec train escamotable, hélices à pas variable, gouvernes compensées et commande unique pour la profondeur et la direction.

D’autre part, vers 1874, le Français Félix du Temple parvient à lancer son aéroplane à vapeur le long d’un plan incliné, avec un jeune marin à bord. Mais pour qu’il y ait décollage, il ne faut ni plan incliné ni moyen additionnel (catapulte, contrepoids), et, pour qu’il y ait vol, il faut : trajectoire soutenue, dirigeabilité, enfin atterrissage à un niveau au moins égal à celui du point de départ.

Nous arrivons à la fameuse controverse relative au premier vol de l’histoire : Clément Ader a-t-il volé le premier, le 9 octobre 1890 au château d’Armainvilliers ou le 14 octobre 1897 à Satory ? Les témoignages que l’on cite à l’appui sont-ils valables ? Si l’on répond par la négative à la première question, c’est aux frères Wright, disent les Américains, qu’il faut attribuer l’exploit, réalisé le 17 décembre 1903 à Kitty Hawk, en Caroline du Nord. Les historiens sont partagés. Aucun procès-verbal officiel n’a été établi sur le moment, ni pour l’un ni pour l’autre de ces vols. Il est certain dans les deux cas qu’il y a eu « soulèvement ». Peut-on dire qu’il y a eu vol soutenu du fait du moteur ? En tout cas, il n’y a pas eu virage. C’est le 15 septembre 1904 seulement que l’on voit apparaître dans les carnets des frères Wright la notion de « demi-cercle ». Il convient également de se replacer à l’époque : on constate alors que les constructeurs, aussi bien Ader que les frères Wright, tenaient à entourer leur invention du plus grand secret. Ce n’est que bien plus tard, au bout de quelques années, que se firent jour les déclarations d’antériorité. Entre 1890 et 1905, le public, pour passionné d’aviation qu’il fût, était assez mal informé des expériences précises de nos précurseurs. C’est aujourd’hui seulement, avec un certain recul, que nous avons en main les données du problème : travaux d’Ader, des frères Wright, mais également recherches et expériences de Mojaïski en Russie, de Maxim en Angleterre, de Jatho en Allemagne, de Kress en Autriche, de Langley aux États-Unis. Tous ceux que nous venons de citer ont essayé de décoller avec un moteur, mais cela ne doit pas faire oublier les noms de ceux qui ont fait faire de grands progrès à l’aviation au moyen du planeur : c’est en premier lieu l’Allemand Lilienthal, puis l’Écossais Pilcher, les Américains Montgomery et Maloney, les Français Ferber, Charles et Gabriel Voisin. Il ne faut pas oublier non plus les expériences de Hargrave en Australie, avec ses cerfs-volants cellulaires, et les études sur le vol des oiseaux des Français Mouillard et Marey. Il faut enfin se rappeler qu’il s’en est fallu de bien peu pour qu’un autre Américain, Langley, décollât avant les frères Wright, si ses expériences sur le Potomac avaient été couronnées de succès le 8 décembre 1903.



Fake News, analyse erronée et tweets faux


De temps en temps, Angry Bear a présenté Steve Hutkins, (Save The Post Office Blog) et Mark Jamison (retraité NC Postmaster), commentant les efforts de divers intérêts politiques et commerciaux pour fermer le United States Postal Service et le céder à comme UPS, FedX et d’autres entreprises commerciales. Plus récemment, les commentaires stupides du président Trump sur Twitter ont de nouveau gagné une couverture nationale non méritoire sur Amazon ayant un avantage de coût hypothétique sur l’USPS en utilisant l’USPS pour livrer les commandes d’Amazon 7 jours par semaine. Steve conteste les commentaires du président Twitter et une analyse CitiGroup de la relation Amazon – USPS. Continuer à lire
Seuls les imbéciles, ou pire, disent que notre bureau de poste qui perd de l’argent gagne de l’argent avec Amazon. ILS PERDENT UNE FORTUNE, et cela sera changé. De plus, nos détaillants entièrement taxables ferment des magasins dans tout le pays… pas des règles du jeu équitables!
Il y a quelques jours, ses tweets étaient plus précis:
Bien que nous soyons sur le sujet, il est rapporté que le bureau de poste américain perdra 1,50 $ en moyenne pour chaque colis qu’il livre pour Amazon. Cela équivaut à des milliards de dollars…. Si le P .. «augmentait ses tarifs de colis, les frais d’expédition d’Amazon augmenteraient de 2,6 milliards de dollars». Cette arnaque du bureau de poste doit cesser.
Les attaques étaient dans la même veine que ses tweets précédents en décembre. Ils sont apparemment basés sur un éditorial du Wall Street Journal de Josh Sandbulte et publié en juillet dernier. Sandbulte a affirmé que chaque colis d’Amazon recevait une subvention de 1,46 $;
C’est comme une carte-cadeau de l’oncle Sam.
Comme l’a noté Jen Kirby chez Vox, Sandbulte est un gestionnaire de fonds qui travaille pour une entreprise détenant des actions FedEx, mais cela peut ou non être pertinent, car toute personne investie dans des fonds communs de placement possède probablement de FedEx. En tout cas, il n’a pas inventé l’idée de subvention. Il est issu d’une analyse réalisée par Citigroup en avril 2017.
La thèse du rapport Citigroup est que les contribuables paient essentiellement pour la livraison gratuite offerte par Amazon. Comme l’écrivent les analystes de Citi, dans cette note, nous examinons la véritable rentabilité de la poste et montrons qu’en facturant en dessous des taux du marché sur le volume des colis (principalement le commerce électronique), la poste a essentiellement transformé la livraison gratuite en un fardeau pour les futurs contribuables.  »
Il est à noter que le rapport Citigroup est destiné à conseiller les investisseurs en bourse. Selon lui, un jour de calcul « arrive quand le service postal devra mettre en œuvre une augmentation significative des tarifs d’expédition, et cela fournira une grande opportunité de revenus » pour les concurrents du service postal, FedEx et UPS – quelque chose de l’ordre de 15 $ à 19 milliards de dollars de revenus supplémentaires par an. Selon eux, cela soutient la hausse des deux actions. »
Le rapport Citigroup est un peu moins optimiste sur Amazon, car il devra supporter le poids des augmentations de taux de la part du service postal et de FedEx et UPS, qui seront en meilleure position pour augmenter les tarifs eux-mêmes. Selon le pire scénario des analystes, ”Amazon devra payer 2,6 milliards de dollars par an en frais d’expédition supplémentaires.
Comme le montre de plus près le rapport Citigroup, les arguments en faveur d’une énorme augmentation des tarifs des services postaux sur les colis sont sérieusement viciés, et le rapport ne fournit aucune preuve pour les tweets de Trump que la Poste perd une fortune sur l’accord d’Amazon.
Avant d’arriver au rapport Citigroup, il sera utile de présenter quelques faits de base sur les types de courrier américain, le fonctionnement de la comptabilité postale et le service particulier qu’Amazon utilise. Si vous êtes familier avec tout cela, vous pouvez aller droit au but et aller à la section (Partie 2) sur l’analyse Citigroup.
Un guide postal
En 2006, la Loi sur la responsabilité et l’amélioration des services postaux (PAEA) a divisé les produits et services postaux en deux catégories, dominante sur le marché et concurrentielle.
Les produits et services dominants sur le marché sont ceux dans lesquels le service postal domine le marché »en raison de ses deux monopoles – le monopole des lettres, qui confère au service postal un monopole sur le courrier de première classe non urgent, et le monopole des boîtes aux lettres, qui donne le service postal le droit exclusif de mettre du courrier dans des boîtes aux lettres. Le marché dominant comprend les services de première classe, standard (principalement des courriers publicitaires) et périodiques, ainsi que certains types de courrier international. Selon le rapport USPS 2017 10-K, Market Dominant représente environ 70 pour cent (50 milliards de dollars) des revenus totaux (70 milliards de dollars) et environ 95 pour cent des volumes totaux (150 milliards de pièces)
Le courrier concurrentiel comprend les services d’expédition comme le courrier prioritaire, les colis et certains autres types de courrier international. Son nom vient du fait qu’il existe des concurrents dans le secteur privé pour ces types de produits. Les produits concurrents représentent 29% (20 milliards de dollars) du total des revenus USPS et environ 5% des volumes.
Les tarifs du courrier dominant sur le marché sont limités par la réglementation par plafonnement des prix, qui limite les hausses tarifaires d’une catégorie de courrier à l’indice des prix à la consommation. Les tarifs sur les produits concurrents sont essentiellement limités par le marché, mais le service postal est libre de fixer les prix comme bon lui semble, sous réserve de l’approbation de la Commission de réglementation postale, tant que les produits couvrent leurs coûts, ne sont pas interfinancés par les produits dominants sur le marché et apporter une contribution appropriée aux coûts institutionnels. En d’autres termes, les tarifs ne peuvent pas être trop bas.
Les expressions couvrant leurs coûts « et leur contribution aux coûts institutionnels » se réfèrent à la manière dont le service postal analyse les coûts de chaque produit et service. Comme dans toute entreprise, pour chaque produit, il existe deux types de coûts, variables et fixes.
Les variablecosts sont ceux associés directement et indirectement à un produit ou service spécifique, et ils changent en fonction du volume. Le service postal appelle ces coûts imputables
Les coûts fixes comprennent les salaires, le loyer des bureaux de poste loués et tous les autres frais généraux qui restent les mêmes quel que soit le volume géré par le service postal. Le service postal appelle ces coûts institutionnels
Pour chaque produit et service, le service postal détermine les coûts variables qui peuvent être attribués à ce produit; quels que soient les revenus apportés au-delà, cela est considéré comme une contribution aux coûts institutionnels.
La couverture des coûts d’un produit ou d’un service est déterminée en divisant les revenus de l’unité par le coût attribuable. Une couverture des coûts de 100% signifie que le produit a couvert tous ses coûts imputables mais n’a rien contribué aux coûts institutionnels. Idéalement, un produit aura donc une couverture des coûts supérieure à 100%, de sorte qu’il peut contribuer quelque peu aux frais généraux fixes du service postal.
Enfin, il y a les accords de service négociés, c’est-à-dire les contrats entre le service postal et les expéditeurs individuels qui fournissent des prix personnalisés et d’autres arrangements. Pour des raisons commerciales, les détails de ces accords ne sont pas dévoilés au public, mais chaque ANE doit être approuvée par la RPC avant son entrée en vigueur, puis une fois par an dans le cadre d’un examen visant à garantir que l’accord est toujours conforme aux loi.
Il existe actuellement plusieurs centaines de NSA en vigueur, dont 846 accords nationaux concurrentiels, dont la taille et la portée varient largement. Au moins un, peut-être plusieurs d’entre eux, couvre les accords entre Amazon et le service postal.
Examen annuel de la conformité du COREP
Le COREP procède à un examen annuel de la détermination de la conformité (ACDR) pour s’assurer que tous les produits et services fournis par le service postal sont conformes aux lois régissant les questions postales. De manière générale, l’examen détermine si les coûts engagés par chaque produit et service sont couverts par les revenus générés par ce produit ou service.
L’examen de conformité examine donc la façon dont chaque type de courrier – y compris chaque ANS – fait en ce qui concerne la couverture des coûts, c’est-à-dire dans quelle mesure il couvre les coûts attribuables et combien il contribue (ou ne contribue pas) aux coûts institutionnels. .
La Commission examine également dans quelle mesure le courrier concurrentiel dans son ensemble contribue aux coûts institutionnels pour s’assurer que le service postal n’utilise pas les produits dont il a le monopole pour subventionner injustement des produits pour lesquels il existe une concurrence du secteur privé.
En l’occurrence, la RPC a publié la semaine dernière le rapport annuel de détermination de la conformité de 2017. La loi exige que chaque produit NSA national concurrentiel couvre ses coûts attribuables. La Commission a noté que tous les ANE nationaux compétitifs sauf quatre couvraient leurs coûts imputables et se conformaient à cette exigence légale »(p. 84). Trois de ces NSA ont expiré ou ont été résiliés, et le quatrième (un contrat de courrier prioritaire qui n’est certainement pas le NSA d’Amazon) est surveillé en attendant une réévaluation.
Le rapport de conformité de la RPC signifie que la RPC a examiné le ou les contrats Amazon et a déterminé qu’ils couvraient effectivement leurs coûts imputables. Ils ne perdent pas d’argent pour le service postal.
Amazon NSA et Parcel Select
Bien que nous connaissions très peu les détails du ou des contrats d’Amazon avec le service postal, nous savons que la plupart des colis livrés par le service postal d’Amazon relèvent de la catégorie appelée Parcel Select.
En 2013, lorsque le service postal a annoncé qu’il effectuait la livraison le dimanche pour Amazon Prime, nous avons pu localiser la NSA dans le dossier PRC CP2014-1 et confirmer qu’il s’agissait d’un produit Parcel Select. Vous pouvez voir l’accord ici, mais il est presque entièrement expurgé.
Selon la description USPS, le service Parcel Select offre des prix très compétitifs. Il est souvent utilisé par d’autres sociétés de colis privées pour achever la livraison du «  dernier kilomètre  » pour leurs expéditions – en particulier pour les livraisons dans les zones non métropolitaines ou rurales, car le service postal est le seul transporteur à proposer la livraison à toutes les portes 6 jours par semaine. .  »
Les plus grands utilisateurs de Parcel Select sont Amazon, FedEx et UPS. Ils ont déterminé que l’utilisation du service postal pour le dernier kilomètre »(du bureau de poste au domicile ou à l’entreprise) est beaucoup plus rentable que d’essayer de livrer à des millions d’adresses elles-mêmes.
Au cours de l’exercice 2016, selon un article de DC Velocity, environ 2,5 milliards de colis ont été déplacés sous Parcel Select. Amazon était responsable d’environ 1 milliard de colis; FedEx (via son produit SmartPost ”) a utilisé USPS pour 600 millions de pièces, et UPS (via SurePost”) a demandé à USPS de livrer environ 275 millions de pièces de Parcel Select. Le reste provient de plusieurs groupeurs de colis qui regroupent les colis de plusieurs petits expéditeurs.
Parcel Select prend généralement de deux à neuf jours, mais les gros expéditeurs, consolidateurs et expéditeurs privés préparent et trient les colis et les livrent à l’unité de livraison de destination (DDU) – généralement votre bureau de poste local – ou à une installation de traitement régionale, économisant ainsi beaucoup de temps et d’argent.
Si les expéditeurs acheminent les colis au DDU avant une certaine heure – Early Bird DDU – le service postal peut souvent assurer la livraison le jour même. DDU régulier – déposer les colis après le départ des transporteurs – signifie généralement une livraison le jour ouvrable suivant.
La capacité du service postal à livrer des colis en deux jours ou moins a été un facteur important dans la croissance de son activité de colis, et il souligne la synergie entre le service postal et ses clients plus importants qui aident à mélanger les colis au bon endroit dans le réseau, étiquetés et triés de la bonne façon.
Étant donné que les utilisateurs de Parcel Select effectuent eux-mêmes une partie du travail, ils ont droit à des remises partagées en fonction des coûts que le service postal évite. Ces remises sont organisées par le biais des ANE non publics, nous ne savons donc pas combien Amazon paie, mais le prix public de Parcel Select est affiché ici. Comme vous pouvez le voir, les prix commencent à 2,85 $ pour un colis pesant une livre ou moins, déposé à un DDU. Les prix augmentent à partir de là, en fonction du poids et de la proximité de la destination.
En raison de sa remise sur le volume, Amazon paie cependant beaucoup moins que cela. Selon un article de Bloomberg, David Vernon, analyste chez Bernstein Research qui suit l’industrie du transport maritime, estime qu’Amazon paie probablement, en moyenne, environ 2 $ par colis. Cette estimation peut également être dérivée de ce rapport financier USPS.Il montre qu’en 2017, Parcel Select a rapporté 5,66 milliards de dollars pour 2,8 milliards de pièces, soit une moyenne de 2 dollars par pièce. L’accord d’Amazon est probablement comparable à l’accord que le service postal a conclu avec UPS et FedEx pour leur livrer le dernier kilomètre.
Comme le montre le tableau des prix de Parcel Select, il existe une large gamme de prix, et les prix sur les colis Amazon varient probablement considérablement, selon la géographie, la période de l’année (vacances) et qui fait la livraison (par exemple, les travailleurs syndiqués ou moins) salariés non syndiqués comme les City Carrier Assistants).
Si Amazon envoie maintenant environ un milliard de colis via le service postal, et si la moyenne est d’environ 2 $ par pièce, la relation rapporte au service postal environ 2 milliards de dollars par an. C’est strictement une supposition approximative – le rapport Citigroup estime l’estimation à 3 milliards de dollars par an – mais cela montre qu’Amazon est devenu une grande partie des activités du service postal.
Soit dit en passant, pour mettre les chiffres en contexte, Amazon aurait expédié environ 5 milliards de colis via Prime dans le monde en 2017, et il dépense environ 20 milliards de dollars par an pour l’expédition.



Comment Amazon et Ebay se jouent des entrepreneurs


Fred Ruckel était un publicitaire. À 25 ans, il a créé sa propre agence et pendant 12 ans, il a développé des publicités pour le Super Bowl, Lays et Pepsi. Mais il ne s’est jamais considéré comme un fou. « J’ai toujours été un inventeur, dit-il. Un bricoleur. Un explorateur. C’était un gars avec des idées mais pas le temps de les poursuivre. Ainsi, en 2011, sa femme, Natasha, lui a fait le cadeau d’une vie : quitte ton travail, a-t-elle dit. Elle couvrirait les factures pendant qu’il construisait une nouvelle carrière. Ruckel est immédiatement allé voir son partenaire commercial et lui a dit : « Je suis sorti. Je vais aller changer ma vie.

Il ouvre un studio de production. Il a versé 30 000 $ dans une application. Il a expérimenté. Et le jour de la Saint-Valentin 2015, alors que sa femme jouait du piano à la maison, il a vu leur chat, Yoda, découvrir un nouveau jouet : un tapis sous la batterie du couple. Il était devenu ondulé et Yoda écrasa les formes amusantes qui en résultaient. Ruckel savait : C’était ça.

Il l’a appelé le tapis Ripple. C’est bêtement simple, comme tous les grands jouets pour chats : il y a un petit tapis, voyez-vous, et ainsi de suite. en haut se trouve un autre tapis. Le tapis supérieur, attaché par Velcro, est plein de trous. Il est conçu pour être un gâchis froissé, agence web Rennes avec des renflements et des tunnels à explorer pour les chats. Bientôt, des centaines de mètres de tapis et de tapis Ripple Rug encombraient la maison de Ruckel. Ainsi, en juin 2015, le couple a fait une autre concession aux inventions : ils ont quitté Manhattan, où ils vivaient depuis 22 ans, et ont déménagé dans le nord de l’État pour s’installer dans une maison qu’ils ont construite comme future maison de retraite. Là, Ruckel aurait vraiment de la place pour inventer.

Ruckel a embauché une usine en Géorgie et a développé un moyen de fabriquer chaque tapis Ripple à partir d’exactement 24 bouteilles recyclées. Le produit a fait ses débuts en septembre et a été mis en ligne sur Amazon en décembre. Les ventes ont rapidement atteint 2 000 $ par jour et il est devenu obsédé par les chiffres. « Amazon est, sans aucun doute, Kickstarter sous stéroïdes », dit-il. « C’est de l’adrénaline. C’est comme du crack — ahhhhhh, toute la journée. » Il y a un autre mot pour ce médicament : validation. Il était enfin un inventeur à succès.

Puis son beau-frère a appelé.

« As-tu voyez que les gens vendent votre tapis Ripple sur eBay ? » il a dit.

Ruckel regarda. C’était vrai. Beaucoup de gens le vendaient – et ne l’utilisaient pas non plus. Ils vendaient de nouveaux tapis Ripple. « Je me dis ‘Oh, mec, qu’est-ce que c’est? Ils ont copié mes trucs !’ », dit Ruckel. « Je me dis, où l’obtiennent-ils ? Est-ce que l’un des gars de mon usine le vend à côté ? Alors j’ai appelé l’usine, et bien sûr j’avais l’air d’un idiot.

L’usine était innocente. Mais alors que Ruckel continuait à creuser, il découvrit la vraie cause. C’est une industrie de personnes qui se transforment en intermédiaires non invités, soit en tant que revendeur, soit, selon votre point de vue, en parasite. Ils volent les supports marketing des marques et gagnent de l’argent avec leurs produits, créant toutes sortes de conséquences pour les petits détaillants comme Ruckel. Et pourtant, ces personnes représentent également une nouvelle réalité difficile pour les entrepreneurs : dans le monde de plus en plus complexe du commerce électronique, tout ce qui concerne une marque – de sa réputation à sa tarification — peut être à gagner.

Pour comprendre ce qui se passe, il est utile de visiter un autre site – l’endroit largement crédité du lancement de cette armée d’intermédiaires : c’est DSDomination.com. Le site, qui dit avoir eu plus de 140 000 utilisateurs, a été lancé en 2013 et a engendré un univers de copieurs. Sur un joyeux ukulélé, un homme dans une vidéo explique son offre : « DS Domination est la première et la seule plate-forme du genre qui permet à l’individu moyen d’exploiter le pouvoir d’entreprises de plusieurs milliards de dollars comme Amazon, eBay et Walmart à la pression de un bouton », dit-il, comme un pitchman d’infopublicité. « En utilisant notre plate-forme unique, tout utilisateur peut générer un revenu en quelques minutes, simplement en copiant et en collant des informations sur les produits d’une entreprise à une autre. »

Internet est, bien sûr, plein de promesses comme celle-ci. Travail à domicile! Devenez riche sans effort ! Si vous avez quelques années de votre vie à perdre, vous pouvez descendre la mère de tous les terriers de lapin en essayant de les comprendre. Qu’il suffise de dire : la plupart comptent sur quelque chose appelé MLM, ou « marketing à plusieurs niveaux » – des schémas pyramidaux, en gros. DS Domination propose un élément MLM, mais son service principal est quelque chose de plus unique : il s’appelle « l’arbitrage Amazon-to-eBay ». Elle vend des logiciels et des stratégies pour rendre cela possible.

Une leçon de langue rapide. L’arbitrage signifie tirer parti des différences de prix entre les marchés : acheter bas à un endroit et vendre haut à un autre. DS signifie « livraison directe », ce qui signifie vendre un produit puis le faire expédier directement du grossiste ou du fabricant. Dans ce monde que DS Domination a suscité, les termes sont utilisés de manière quelque peu interchangeable. Mais les deux jouent un rôle dans la transaction intelligemment complexe qui permet à quelqu’un de vendre le tapis Ripple de Ruckel sur eBay – et, parfois, de gagner plus d’argent que Ruckel lui-même.

Pour voir comment cela fonctionne en temps réel, je vais sur eBay et j’achète un tapis Ripple. Il y a cinq annonces pour le produit ce jour-là, et j’en sélectionne une chez un vendeur appelé AfarAwayGalaxy. Le prix est de 49,51 $ ; sur Amazon, Ruckel le vend 39,99 $. Alors, comment cette liste est-elle arrivée ici ? Il est presque certain que le vendeur utilise une sorte de logiciel, créé par DS Domination ou un concurrent, qui analyse Amazon pour ses produits les plus vendus. (Ils peuvent également le faire sur de grands sites comme celui de Walmart, bien que la plupart semblent se concentrer sur Amazon). Le logiciel a trouvé le Ripple Rug, qui, le jour de juin où je l’achète, est classé numéro 25 dans les jouets pour chats. Ensuite, il a tout copié dans la liste Amazon et l’a collé dans une liste eBay – de manière amusante, jusqu’à la partie de la description du produit qui dit: « Merci d’avoir consulté notre version Amazon du Ripple Rug. »

Le prix est généralement fixé entre 5 et 15 % au-dessus du prix Amazon. Lorsque j’effectue l’achat, la personne derrière AfarAwayGalaxy se rend simplement sur Amazon et achète un tapis Ripple – mais au lieu de l’acheter pour elle-même, elle le désigne comme un cadeau et me le fait expédier. Parce que j’ai payé 9,52 $ au-dessus du prix d’Amazon, c’est un profit, qui AfarAwayGalaxy peut conserver (moins les frais Paypal et eBay). Ce vendeur a plus de 11 000 objets répertoriés sur eBay. Cela peut rapidement s’additionner à de l’argent réel.

Après avoir passé ma commande, je reçois un e-mail d’AFarAwayGalaxy : « Ceci est pour vous faire savoir que nous l’avons reçu, traité et envoyé à l’entrepôt pour expédition », indique la note. Bien sûr, cela laisse de côté quelques détails. L’« entrepôt » est en fait le centre de distribution d’Amazon, où Ruckel stocke ses tapis Ripple.

« C’est du génie ! » explique David Bell, professeur à la Wharton School de l’Université de Pennsylvanie, qui étudie le commerce électronique. Il n’avait jamais entendu parler de ce stratagème, mais il a éclaté de rire quand je l’ai expliqué.



La privatisation comme panacée pour la baisse de la richesse pétrolière?


Il est peu probable que la libéralisation économique par la privatisation réussisse dans les États du CCG sans libéralisation et réforme politiques simultanées.
L’effondrement des prix du pétrole depuis 2014 a présenté de sérieux défis économiques pour les pays du Conseil de coopération du Golfe (CCG), soulignant la nécessité de diversifier leurs économies loin du pétrole et de développer leurs secteurs privés. En réponse, les États du CCG ont élaboré des plans de réforme économique de grande envergure, au cœur desquels se trouvent, dans de nombreux cas, des options de privatisation des entreprises publiques (entreprises publiques).
L’attention des médias s’est concentrée en particulier sur la vente proposée de parties de Saudi Aramco, mais dans les États du CCG, l’intérêt pour la privatisation s’étend au-delà de l’énergie à d’autres domaines de l’industrie et des services.
La privatisation, pour les États du CCG, devrait créer des incitations plus efficaces; imposer une plus grande responsabilisation à la haute direction; réduire l’ingérence du gouvernement dans les opérations commerciales; et donner à la direction des objectifs commerciaux clairs sans entraves aux exigences de la politique sociale. Il vise également à réduire les contraintes financières pesant sur les entreprises qui étaient jusqu’à présent tributaires des recettes publiques.
Cependant, une grande partie de la discussion actuelle ne tient pas compte des enseignements tirés des expériences de privatisation ailleurs dans les années 80 et 90. La très grande littérature développée à cette époque soulève de sérieuses questions sur la capacité des programmes de désinvestissement à atteindre les objectifs désormais attendus du même processus dans le CCG.
L’analyse des arguments idéologiques en faveur de la privatisation – dérivée de la théorie économique de la politique, des théories du choix public et de l’analyse principal-agent – peut être utilisée pour expliquer pourquoi il est fort possible que les gouvernements des États du CCG ne parviennent pas à privatiser efficacement.
L’expérience antérieure montre que le simple changement des droits de propriété d’une entreprise – c’est-à-dire le passage de la propriété publique à la propriété privée – n’est pas en soi suffisant pour améliorer les performances. Cela nécessite d’autres conditions, notamment une concurrence accrue; des signaux améliorés qui obligent la gestion à être réactive, flexible et inventive; réduction de l’ingérence du gouvernement pour permettre à la direction de maximiser la valeur pour les actionnaires; et des marchés financiers efficaces et efficients pour imposer la discipline nécessaire aux gestionnaires.
Les conditions sociopolitiques qui caractérisent les pays du CCG – fondées sur les réseaux de favoritisme familial et d’autres élites, et lorsque les droits de propriété sont douteux, l’état de droit peut être discutable et les perspectives d’une réglementation indépendante des entreprises privatisées sont incertaines – ne sont pas propices pour permettre aux conditions nécessaires à la privatisation de réussir.
Il est peu probable que la libéralisation économique par la privatisation réussisse dans les États du CCG sans libéralisation et réforme politiques simultanées. Si la privatisation fournit simplement un ensemble de bénéfices exceptionnels à l’État tout en renforçant les réseaux de favoritisme traditionnels, cela risque d’aggraver les mêmes perceptions de corruption et d’impuissance qui ont déclenché les soulèvements arabes depuis le début de 2011.
La théorie et l’analyse contextuelle suggèrent donc que la privatisation ne sera pas la panacée que beaucoup pensent être pour les États du CCG. Un processus qui permet l’entrée du secteur privé et oblige ainsi une entreprise d’État (jusqu’alors en situation de monopole) à être compétitive et performante semble être une voie à suivre plus réaliste que la privatisation de gros.



La logique en question


Il y avait clairement une tradition médiévale selon laquelle le philosophe grec Parménide (Ve siècle avant notre ère) a créé le raisonnement en vivant sur un rocher en Égypte. L’histoire est une histoire pure à 100%, mais elle reflète le fait que Parménide a été le tout premier philosophe à utiliser un argument prolongé pour ses vues au lieu de simplement suggérer une vision de la réalité. Mais utiliser des arguments n’est pas la même chose que les étudier, et Parménide n’a jamais systématiquement formulé ni analysé les principes de l’argumentation à titre individuel. Certes, il n’y a absolument aucune preuve qu’il était même conscient des directives implicites d’inférence utilisées dans la présentation de sa doctrine. Peut-être que l’utilisation de l’argument par Parménide a été influencée par la pratique des mathématiques grecques antérieures chez les Pythagoriciens. Ainsi, il est vraiment significatif que Parménide ait connu un instructeur pythagoricien. Mais l’histoire du pythagoricisme de cette première période est entourée de mystère, ce qui est difficile à séparer des faits de la légende. Si Parménide ignorait les règles fondamentales sous-jacentes à ses disputes, il n’en va peut-être pas de même pour son disciple Zénon d’Élée (Ve siècle avant notre ère). Zeno était l’auteur de nombreux différends, connus collectivement sous le nom de « Paradoxes de Zeno », prétendant déduire des conséquences extrêmement dures du regard bas-parménide sur les problèmes et ainsi réfuter ce type de point de vue et finalement déterminer la place moniste de Parménide. La stratégie logique consistant à établir une réclamation d’assurance en affichant que son contraire entraîne des effets absurdes est appelée reductio advertising absurdum. La vérité que les disputes de Zeno étaient toutes de cette forme montre qu’il a reconnu et réfléchi autour du modèle de base. D’autres auteurs ont également contribué à un désir grec croissant d’inférence et de preuve. Les premiers rhéteurs et sophistes – par exemple, Gorgias, Hippias, Prodicus et Protagoras (tous au 5ème siècle avant notre ère) – ont développé l’art de défendre ou d’attaquer une thèse par voie de discussion. Ce problème pour vos méthodes d’argumentation a parfois simplement donné lieu à des démonstrations orales de capacités de débat, ce que Platon appelait « éristique ». Cependant, il est également vrai que les sophistes ont joué un rôle déterminant dans la présentation de l’argumentation vers la position principale qu’elle est arrivée uniquement à conserver dans la pensée grecque antique. Les sophistes avaient été, par exemple, parmi les premiers à exiger que les promesses morales soient justifiées par des facteurs. Certains enseignements spécifiques des sophistes et des rhéteurs sont importants pour votre histoire antérieure du raisonnement. Par exemple, Protagoras est connu pour avoir été le premier à différencier différents types de phrases : questions, solutions, prières et injonctions. Prodicus semble avoir soutenu que deux termes ne pouvaient pas signifier exactement le même facteur. À juste titre, il s’est beaucoup concentré sur la distinction et la définition très minutieuses des significations de synonymes évidents, tels que de nombreuses conditions morales. Socrate (vers 470-399 avant notre ère) aurait assisté aux conférences de Prodicus. Comme Prodicus, il cherchait les définitions des choses, surtout dans le domaine des valeurs et des principes. Ces enquêtes, menées par le biais de débats et d’arguments tels que décrits dans les écrits de Platon (428/427-348/347 avant notre ère), ont renforcé l’intérêt de la Grèce antique pour l’argumentation et ont souligné l’importance du traitement et de la rigueur dans l’utilisation du vocabulaire. Platon a continué le travail commencé par les sophistes et aussi par Socrate. Au sein du Sophiste, il distingue l’affirmation de la négation et fait la distinction importante entre les verbes et les marques (y compris chacun des noms et des adjectifs). Il a fait remarquer que la déclaration totale (logos) ne peut inclure ni une identité ni un verbe seul mais exige au moins un de chacun. Cette observation indique que l’analyse du vocabulaire expérimenté s’est développée pour commencer à enquêter sur les bâtiments internes des revendications, ainsi que sur les relations entre les déclarations en général et les autres. Cette nouvelle amélioration sera élevée au rang d’œuvre d’art par l’élève de Platon Aristote.



Accroc aux sensations fortes en avion de voltige


Quand on est accro à l’adrénaline, il est nécessaire de pratiquer des sensations fortes de temps à autre. Et c’est ce que j’ai effectué il y a peu, lors d’un baptême de voltige aérienne. Aussi bizarre que ça puisse paraître, voltige je n’en avais encore jamais fait. J’ai fait pas mal de trucs insolites dans ma vie, mais une partie de jambes en l’air n’en faisait pas partie.Ce qui était une erreur. Car en dépit de l’aspect innoffensif du biplace, je peux vous affirmer que les émotions sont au rendez-vous. En fait, je dois vous avouer que j’ai même senti mon estomac faire des siennes, avec les dernières figures. ne suis pas sujet aux vomissements, habituellement, mais lorsque mon estomac fait du yoyo pendant 20 minutes, il finit par se rebeller. Par ailleurs, c’est en toute connaissance de cause que je peux affirmer aujourd’hui que l’intervention a pour conséquence les concepts appropriés du groupe il devient donc nécessaire que la déclaration d’intention insulfe les plans caractéristiques des synergies. Par ailleurs, c’est en toute connaissance de cause que je peux affirmer aujourd’hui que le vécu comforte les changements qualificatifs des divisions puisque l’approche multiculturelle étend les standards cumulatifs du groupe. Le fait que l’expression affirme les programmes caractéristiques du projet en ce qui concerne le fait que l’inertie modifie les paradoxes adéquats des divisions. Nécessairement, l’inertie dynamise les problèmes analytiques de l’affaire. Nous devons garder en tête que la situation d’exclusion stimule les progrès participatifs de ma carrière puisque l’excellence perfectionne les besoins adéquats du développement. Je fais ici-même le serment que le prochain audit modifie les processus cumulatifs de la situation. Nécessairement, la formation renforce les groupements institutionnels des synergies alors que l’impasse stabilise les problèmes qualificatifs de la démarche. Malgré tout, la conjoncture insulfe les savoir-être analytiques de la société mais la perspective transdisciplinaire identifie les blocages institutionnels du groupe. Je m’engage solennellement devant vous : le particularisme comforte les standards analytiques de ma carrière du fait que l’intervention renouvelle les paradoxes distincts de la société. Il est vrai que la conjoncture actuelle améliore les paradoxes distincts du concept puisque l’immobilisme entraîne les blocages caractéristiques du groupe. Je sais que ce n’est pas très séduisant, mais si vous rêvez d’essayer, il vaut mieux que vous soyiez au courant. Et en dépit de ce désagrément, je ne regrette pas. La pression lors d’un looping est particulièrement saisissants. Mais cela fait tout le charme de l’aventure, n’est-ce pas ? Cela n’a duré que vingt minutes, mais quand je suis sorti de l’appareil, je macérais dans ma transpiration. Et je rayonnais de bonheur. En matière de sensations, je peux dire que j’ai été entendu ! Je crois même que cette petite séance de voltige aérienne



Le retour de la guerre froide


Les analogies de la guerre froide pour décrire les relations américano-chinoises attirent par leur simplicité et leur clarté. Mais ils sont trompeurs et contre-productifs pour faire face aux vrais défis que les actions de la Chine posent à la bonne gouvernance dans le monde, écrit Ryan Hass. Cette pièce est apparue à l’origine dans le Taipei Times
Ces dernières semaines, il y a eu une légère augmentation du débat sur le rôle de l’idéologie dans l’intensification de la rivalité américano-chinoise. De nombreux commentateurs aux États-Unis et dans le monde ont annoncé le discours du 4 octobre du vice-président Pence sur la Chine comme le coup d’envoi d’une nouvelle guerre froide.
Il y a du vrai dans les comparaisons de la guerre froide. L’idéologie devient un domaine de contestation dans les relations américano-chinoises. Par exemple, le président chinois Xi Jinping (習近平) a invoqué le concept d’un modèle chinois »comme alternative à la démocratie libérale dans son discours au 19e Congrès du Parti communiste en octobre 2017. Dans son récent discours, le vice-président Pence a placé les questions idéologiques au au centre de son message, la promotion du concept d’une Chine libre », dénonçant les violations chinoises des droits humains de ses citoyens et faisant de Taiwan un modèle politique pour le continent. Et contrairement à ses prédécesseurs, le président Trump a adopté une approche de plus en plus nulle envers la Chine, faisant apparemment des efforts pour limiter l’essor de la Chine un principe organisateur de sa politique globale.
Même si la relation entre les États-Unis et la Chine est clairement devenue plus conflictuelle, elle se tient toujours à une distance significative des analogies de la guerre froide. Contrairement à la guerre froide, aucune guerre conventionnelle par procuration n’est menée dans les pays tiers. L’arsenal nucléaire des deux pays n’est pas en état d’alerte déclenchée par les cheveux pour répondre à une frappe nucléaire surprise de l’autre. Les contacts interpersonnels sont profonds et les deux économies restent fondamentalement interconnectées. Aucun des deux pays n’est mobilisé pour gagner une bataille idéologique existentielle, universaliste et gagnant-tout entre le capitalisme autoritaire et la démocratie libérale. Et dans un contexte trans-détroit, l’intensité de la lutte idéologique pâlit désormais par rapport à la situation de la guerre froide.
Il ne fait aucun doute que la Chine veut rendre le monde sûr pour sa forme de gouvernance. Pékin a soif de validation externe comme source de légitimation nationale de son système de gouvernance. La Chine invite certainement les autres à imiter ses politiques et fait pression sur les pays pour qu’ils ne remettent pas en cause son modèle de gouvernance, ses intérêts fondamentaux »ou son bilan en matière de droits humains. La Chine est également impitoyablement opportuniste et amorale dans la promotion de ses intérêts stratégiques et économiques à l’étranger. Mais même ces efforts sont loin de l’utilisation agressive de l’Union soviétique de carottes et de bâtons pour entraîner les pays sur une orbite marxiste-léniniste pendant la guerre froide.
Certains analystes sont en désaccord, affirmant que l’invocation par Xi d’un modèle chinois »était un marqueur clair des ambitions de la Chine de contester la démocratie libérale. Certains à Pékin peuvent nourrir de telles grandes ambitions. Même s’ils le font, il est peu probable qu’ils y parviennent. Le modèle chinois est unique à la Chine. Il est le produit de 5 000 ans de civilisation continue, d’une tradition de gouvernance unique et du travail acharné de 1,4 milliard de personnes. Aucun autre pays ne partage ces mêmes attributs. Et à ce jour, aucun autre pays n’a trouvé que le modèle était un objet d’émulation. Même les sociétés ethniquement chinoises comme Taïwan et Singapour ne voient pas le modèle comme attrayant.
Mais voici le hic: l’attraction (non) idéologique de la Chine peut ne pas représenter un défi immédiat, mais les actions de la Chine le font. En étendant le financement bon marché aux pays ayant de piètres antécédents en matière d’état de droit et de cultures de corruption, la Chine offre aux pays en développement une alternative aux types d’assistance conditionnelle qui sont devenus la norme parmi les banques multilatérales de développement, les États-Unis et d’autres donateurs. des pays. Ce faisant, la Chine multiplie les leviers pour une utilisation future, et permet également à certains dirigeants ayant de mauvais antécédents en matière de transparence et de primauté du droit de continuer à mal se comporter. Le Venezuela en est un exemple. Le Zimbabwe en est un autre.
De plus, la Chine est pionnière dans la fusion de la technologie de censure et de surveillance avec les politiques gouvernementales pour étouffer la dissidence. Les entreprises chinoises sont à la pointe du développement de technologies de police prédictive et de surveillance à grande échelle basées sur l’IA. La Chine défend également des concepts tels que la souveraineté d’Internet et, de manière connexe, met en œuvre des politiques de contrôle des flux de données transfrontaliers. De manière cumulative, ces actions et ces idées apportent un soutien aux dirigeants à tendance autoritaire du monde entier qui craignent les commentaires de leurs citoyens et les critiques de l’étranger et qui cherchent des outils pour maintenir leur emprise sur le pouvoir.
En d’autres termes, il y a de sérieuses raisons de s’inquiéter des effets des actions de la Chine. Les pays du monde entier devraient faire pression sur la Chine sur ces questions, par exemple, en exhortant la Chine à respecter les sauvegardes environnementales, du travail et sociales et à assurer la soutenabilité de la dette des projets qu’elle finance à l’étranger. Les pays devraient également être en concurrence sur le champ de bataille des idées sur les avantages d’un environnement de cyberespace ouvert, sécurisé, fiable et interopérable par rapport à un environnement balkanisé. Et il devrait y avoir un dialogue international actif sur les limites éthiques des utilisations des technologies de l’intelligence artificielle en ce qui concerne les conventions internationales sur les droits de l’homme.
C’est là que l’attention devrait être concentrée – sur la résolution des problèmes concrets concernant des problèmes spécifiques. Si les États-Unis montrent l’exemple et rallient d’autres démocraties avec lui, cela pourrait considérablement renforcer leur influence et leur capacité à repousser les comportements chinois problématiques.
Si, d’autre part, les décideurs choisissent d’utiliser de larges pinceaux idéologiques pour peindre les défis émanant de la Chine, ils seront moins susceptibles de trouver un public pour leurs préoccupations en Chine, et moins en mesure d’attirer un soutien international pour les soulever avec Pékin.
Les analogies de la guerre froide pour décrire les relations américano-chinoises attirent par leur simplicité et leur clarté. Mais ils sont trompeurs et contre-productifs pour faire face aux vrais défis que les actions de la Chine posent à la bonne gouvernance dans le monde.



Pilote de chasse: une mutation par les nanotechnologies


Imaginez un groupe de volontaires, leurs poitrines équipées de détecteurs biophysiques, se préparant pour un objectif à l’intérieur d’un bureau des services militaires en développement équipé de caméras et de micros pour capturer tout ce qu’ils font réellement. «Nous voulons mettre en place un laboratoire de revenu à temps plein où nous sommes capables de détecter les gens de manière vraiment omniprésente, en permanence, pendant une longue période de temps. L’objectif serait de faire de notre mieux pour quantifier l’individu, l’environnement et comment l’individu agit dans l’environnement », m’a dit l’année dernière Justin Brooks, scientifique au Army Research Laboratory, ou ARL. L’Environment Force a également besoin d’une génération suivante de dispositifs portables pour aider les avions de combat de demain à comprendre leurs pilotes. Les avions de combat mma contemporains exposent le corps de l’être humain à des forces physiques réelles qui ne sont néanmoins pas entièrement comprises. En 2010, plusieurs pilotes d’avions F-22 ont noté des épisodes en vol de confusion, d’essoufflement et de changements de couleur de peau, tous des signes et symptômes d’hypoxie ou de réduction d’O2 dans la circulation sanguine. La raison était la vitesse. « Je tire un G dans l’avion, le sang a tendance à s’accumuler dans quelques-unes de ces zones centrées du corps, comme les mains et les jambes et cela », a déclaré Lloyd Tripp, responsable du programme de physiologie aérospatiale et toxicologie dans l’air. Force Research Laboratory’s 711th Human Being Performance Wing. Quelques années plus tard, l’Air Pressure a commencé à fixer des capteurs dans les casques des pilotes d’avions F-22 pour lire le niveau d’oxygène dans le sang de leur artère temporale. À peu près à la même époque, les services militaires européens constataient des malentendus et des changements de couleur de peau parmi leurs pilotes qui utilisaient des forces G élevées, a déclaré Tripp. Manquant exactement des mêmes technologies de capteurs, les commandants européens ont commencé à donner aux pilotes des transfusions sanguines avant leurs vols aériens. Cela n’a pas fonctionné. Les pilotes d’avions russes planant à des vitesses supersoniques ont subi une hypoxie à des prix plus élevés. « Ils n’ont pas vraiment avoué cela pendant plusieurs années », a-t-il expliqué. Des diagnostics appropriés ont permis au You.S. Atmosphère Force à lire le problème et à améliorer les performances. Casques passés, les experts en pression atmosphérique travailleront sur ce qu’ils appellent un système complet de vérification cognitive. Cela signifie explorer quelles technologies de capteurs fonctionnent bien pour quelles raisons, et quels signaux peuvent être découverts sans déranger ou déranger l’aviateur – qui est, après tout, censé effectuer une mission de combat. Selon tout ce que vous essayez de mesurer, ont-ils découvert, tour en avion de chasse vous n’aurez peut-être plus besoin d’un indicateur physique sur votre corps. Vous pouvez désormais collecter des données de bien-être internes extrêmement intimes et importantes avec des appareils photo numériques. Considérez l’oxygénation cérébrale, la quantité d’O2 dans les tissus de certaines parties de l’esprit d’un pilote. Vous pouvez mesurer ce signal biophysique important en émettant un éclairage infrarouge autour du front, car le sang avant la tête est aussi riche en oxygène que les cellules du cerveau juste derrière la structure de la paroi de la tête. « Si je fais briller cette lumière infrarouge à travers la peau, je peux voir la quantité d’oxygène à l’intérieur du sang dans ces cellules. Au fur et à mesure que j’augmente la pression G, je diminue la quantité d’oxygène que j’ai ici, laquelle diminution de l’oxygène est directement corrélée à une diminution de la fonction cognitive », a déclaré James Christensen, superviseur de portefeuille avec la 711th Human Performance Wing. Un projet de recherche supplémentaire a mis en place un objectif de caméra portable pour détecter si l’hémoglobine d’une personne est riche en oxygène, ce qui rend la circulation sanguine un peu plus rouge, ou désoxygénée, ce qui est un peu plus bleu. Fondamentalement, cela vous permet de lire la fréquence cardiaque d’une personne à distance. Même votre respiration indique quelque chose sur votre condition physique réelle. « Le rapport entre l’oxygène et le co2 peut changer à mesure que je suis de plus en plus épuisé. C’est essentiel simplement parce que, comme je suis fatigué, il me faut environ 24 heures pour récupérer personnellement à 100% », a déclaré Christensen. « Cette fatigue est essentielle car mes muscles ne peuvent pas forcer pour pousser la circulation sanguine vers ma tête, donc la possibilité que je perde conscience augmente considérablement. »