Biodiversité: la tragédie est proche


Chaque organisme dans le monde représente les lignes productives de millénaires de sélection biologique, et chaque type remplit des emplois spécifiques à l’intérieur des écosystèmes qu’il habite et façonne. Nous continuons à dépendre entièrement de plusieurs animaux et plantes sauvages pour les aliments, et beaucoup d’entre eux sont à l’origine de produits pharmaceutiques cruciaux ou de l’inspiration pour des progrès techniques. Au-delà de leur valeur financière pour l’homme, les plantes et les animaux nous procurent plaisir et enrichissement dans leur élégance et leur nouveauté. Notre vie quotidienne serait certainement beaucoup moins belle et fascinante sans oiseaux chanteurs, girafes majestueuses, fleurs sauvages, requins excitants ou forêts tropicales exubérantes, n’est-ce pas? Alors que des organismes sont constamment arrivés et éliminés au cours de l’histoire de notre planète, les dommages contemporains à la biodiversité sont déclenchés par l’être humain et les extinctions ont lieu environ 1 000 fois plus rapidement que les prix naturels. Les animaux de compagnie, des baleines aux abeilles, et les plantes de toutes formes et tailles sont vulnérables à l’avancement humain, à la surexploitation, à la pollution de l’air et au changement climatique. Nous avons définitivement abandonné de nombreux micro-organismes spéciaux et intrigants, et beaucoup d’autres sont au bord de l’extinction. La liste de contrôle à faire pour sauvegarder notre précieuse biodiversité est longue, mais les contrats mondiaux, la mère nature se maintient, et la motion pour arrêter le braconnage ainsi que d’autres formes de surexploitation font déjà effet. Les dommages à la biodiversité identifient la diminution des plantes et des fleurs, des animaux de compagnie, ainsi que d’autres micro-organismes dans de nombreux endroits du monde. Les communautés de tous les types de vie non humaine (ainsi que leur précieuse diversité génétique) se sont réduites en raison des menaces de l’être humain. Plusieurs types sont vulnérables et menacés d’extinction, et malheureusement, un nombre incalculable de nombres ont été abandonnés pendant longtemps. Apprenez-en plus sur la biodiversité, ce qu’elle est et pourquoi elle est concernée, et lisez quelques-uns de certains organismes menacés par les mesures. La pensée de la biodiversité est le plus souvent liée à la richesse des types (la question des espèces à l’intérieur d’une zone), et donc la réduction de la biodiversité est généralement considérée comme la réduction des variétés d’un écosystème ou peut-être de la biosphère complète (voir aussi l’extinction). Néanmoins, l’association des dommages à la biodiversité aux dommages des espèces à elle seule néglige d’autres phénomènes délicats qui mettent en danger le bien-être à long terme de l’écosystème. Le déclin soudain des habitants peut éventuellement perturber les composantes interpersonnelles de certaines espèces, ce qui pourrait toujours empêcher les hommes et les femmes de trouver des partenaires, ce qui pourrait alors générer un déclin supplémentaire des habitants. Le déclin de la diversité héréditaire qui s’accompagne de chutes rapides de la population pourrait améliorer la consanguinité (accouplement entre des personnes étroitement liées), ce qui pourrait entraîner une diminution supplémentaire de l’assortiment héréditaire. Bien qu’une espèce ne soit pas vraiment éliminée de l’écosystème ou de la biosphère, sa niche (la fonction que remplissent les variétés à l’intérieur des écosystèmes qu’elle habite) diminue à mesure que le nombre diminue. Lorsque les catégories de niche remplies de types solitaires ou d’une équipe d’espèces sont importantes pour le bon fonctionnement de l’écosystème, une baisse soudaine des chiffres peut entraîner des modifications considérables du cadre de l’écosystème. Par exemple, le défrichage d’arbres et d’arbustes provenant d’une forêt supprime la législation sur l’ombrage, la température et l’humidité, l’environnement des animaux de compagnie et les services de transport nutritionnel qu’ils fournissent à l’écosystème.



Une ville dans un building


Pourrons-nous un jour… habiter dans des structures de la taille d’une ville ? Les villes de science-fiction sont souvent représentées comme des bâtiments englobants et personnels, mais dans quelle mesure serait-il possible de construire une ville immense à l’intérieur d’un bâtiment ? Les zones métropolitaines fermées sont devenues un raccourci narratif pour les établissements futuristes de la science-fiction. Il peut s’agir d’habitats fermés, intégrant toutes les infrastructures importantes, notamment la production d’énergie, la production de repas, la gestion des déchets et l’eau. L’idée d’une arcologie – une expression portmanteau mêlant structures et écologie – a été recommandée par l’architecte Paolo Soleri en 1969, alors qu’il cherchait à mêler construction et concepts environnementaux. Un an plus tard, Soleri a commencé à se concentrer sur Arcosanti, une ville expérimentale aux États-Unis, qui a montré ses concepts.

Les concepts de Soleri ont influencé la science-fiction en donnant à voir des zones métropolitaines innovantes : des environnements monolithiques où la population vit et fonctionne sans avoir à quitter le bâtiment. Au cinéma, on trouve notamment les structures massives à forte croissance dans Dredd (selon la personnalité de la bande dessinée Assess Dredd) et Skyscraper, même si peu de détails sont offerts sur leur fonctionnement. La science-fiction, quant à elle, a pu influencer certaines variantes du monde réel. La ligne de pêche proposée par l’Arabie saoudite est présentée comme une gigantesque ville sage qui pourrait abriter neuf millions de personnes au sein d’un seul développement de 200 m de large (660 pieds), s’étendant sur 170 km (105 kilomètres) et 500 m (1 650 pieds) de haut. La ligne de pêche sera alimentée par l’énergie solaire et les éoliennes, mais ne sera pas entièrement autosuffisante, car les citoyens auront toujours besoin de repas et d’autres fournitures, entreprise batiment qui devront provenir de ressources extérieures.

Certains bâtiments similaires aux arcologies existent déjà réellement. Par exemple, les bases de recherche en Antarctique sont des quartiers assez autosuffisants, principalement en raison de leur éloignement. Les protections écologiques environnantes impliquent également qu’ils doivent être autonomes. La station McMurdo fournit des biens immobiliers à environ 3 000 experts et employés de soutien. Cependant, la station exige toujours d’importantes quantités de nourriture et d’énergie chaque année. Les avions, les sous-marins nucléaires et les plateformes pétrolières sont d’autres structures qui peuvent être aussi personnelles et autonomes que possible. Celles-ci disposent de toutes les zones de vie et de fonction nécessaires à l’équipe, même si elles sont utilisées à court terme. Un avion doit être ravitaillé toutes les quelques semaines, tandis qu’un sous-marin nucléaire peut rester sous l’eau pendant environ quatre semaines. Néanmoins, ni l’un ni l’autre ne sont des endroits particulièrement agréables à vivre. Les sous-marins, en particulier, sont bondés et malodorants, les dortoirs peuvent être partagés et il est recommandé à l’équipe de prendre des suppléments de vitamine D en raison du manque de lumière du jour.

Mais faut-il vraiment développer une arcologie ? Les dimensions de ce type de structure nécessiteraient d’énormes fondations pour en supporter le poids. « Vous êtes en mesure de développer presque tout ce qui est en cause », déclare Monika Anszperger, professionnelle de l’architecture de BSP Talking to. « Les charges seront massives, mais il n’y a rien d’irréalisable. Il sera juste plus coûteux de construire les fondations pour cela. » L’obstacle le plus important causé par la hauteur d’un bâtiment est l’effet du vent soufflant. La charge due au vent soufflant est une préoccupation mineure pour toute maison ordinaire, mais les tours colossales, comme la Burj Khalifa à Dubaï, doivent tenir compte du flux de vent soufflant ainsi que des tourbillons qui en résultent. Un tourbillon est l’impact causé par le vent soufflant qui frappe la surface du développement, créant un endroit de pression réduite sur la partie opposée, puis tourbillonnant autour pour le remplir. C’est cette action tourbillonnaire qui provoque le balancement des grandes structures en cas de vents violents.

Les effets du balancement peuvent aller de l’ondulation des boissons à l’effondrement de la structure. Le pont de Tacoma Narrows, dans l’État de Washington, s’est effondré en 1940 à cause d’un vent fort qui a induit de plus en plus d’oscillations à haute fréquence (mouvements rapides) autour du pont, au point que celui-ci s’est mis en pièces. Les résultats des tourbillons peuvent être atténués par l’utilisation d’un amortisseur de masse accordé (un dispositif permettant de réduire les vibrations) pour réduire le mouvement, en plus de créer la structure pour perturber le flux de vent soufflant. « L’une des façons de minimiser les tourbillons est de modifier la forme du bâtiment à mesure qu’il s’élève », explique Adrian Smith, l’architecte de nombreuses grandes structures, dont Burj Khalifa. « Si vous ne modifiez pas la forme du bâtiment, ce tourbillon a l’occasion de se développer seul et de créer des sursauts de mouvement. Ils se synchronisent en utilisant le cadre du bâtiment et provoquent une chute progressive. » Par conséquent, plutôt que de développer une arcologie comme un cadre de murs de cisaillement, comme présenté dans Dredd, il est plus probable qu’il pourrait être construit pour perturber le flux de vent, comme en utilisant une construction en escalier, comme les anciennes structures méso-américaines.

Un autre obstacle important est l’ère de l’énergie. Les technologies d’énergie renouvelable, comme les panneaux solaires et les éoliennes, pourraient être facilement installées à l’extérieur d’une arcologie, mais il est peu probable qu’elles fournissent à elles seules une solution énergétique complète. Parce qu’elles ne seraient efficaces qu’à des moments précis, des techniques d’énergie de secours et de stockage d’énergie seront nécessaires en cas de pénurie. Les réacteurs nucléaires constituent réellement une solution possible de production d’énergie renouvelable. Les petits réacteurs modulaires (SMR), des variantes miniaturisées fabriquées en usine de réacteurs nucléaires avancés, sont des sources d’énergie légères et efficaces. Les SMR présentent certains avantages par rapport aux grands réacteurs, en termes de sécurité accrue et de prévention de la prolifération des composants nucléaires. Néanmoins, comme pour tous les réacteurs à fission, la manipulation et l’espace de stockage des déchets nucléaires constituent un véritable défi. En outre, les réacteurs à fusion seront plus sûrs et fourniront des formes d’énergie plus propres, mais les conceptions actuelles ne sont ni compactes (l’un d’entre eux, Iter, devrait peser 23 000 kg) ni viables financièrement, car ils n’ont jamais produit beaucoup plus d’énergie qu’ils n’en utilisent.

Il faut également tenir compte de la production de repas. L’agriculture traditionnelle serait irréaliste dans un bâtiment. On pourrait utiliser des fermes hydroponiques droites, qui peuvent offrir une forme d’atmosphère entièrement naturelle en essayant de la recycler. Néanmoins, l’éclairage nécessaire augmenterait la demande d’énergie et les restrictions d’espace pourraient rendre difficile la production de repas en quantité suffisante.



Ou en est le Québec


Rappelons que près de 3 milliards de dollars seront injectés dans l’économie afin de développer la réalisation de projets d’infrastructures dans les secteurs de l’économie jugés prioritaires (écoles, maisons des aînés, transport collectif, réseau routier, etc.).
Cette somme s’ajoute aux 11 milliards qui étaient déjà prévus pour l’année financière 2020-2021. Le gouvernement fédéral s’apprête également à dépenser une somme équivalente dans les projets d’infrastructures qu’il reste à préciser. L’objectif de ces initiatives est de contribuer massivement à la relance de l’économie, tout en répondant aux besoins bien réels.
Agilité et flexibilité, oui, mais dans les règles
Les périodes d’exception et d’urgence – comme ce que nous vivons avec la Covid-19 – appelant des mesures exceptionnelles dans de nombreux secteurs d’activités. Cependant, une même vigilance est particulièrement mise en œuvre qui concerne les projets d’infrastructures, en raison du caractère particulier exceptionnel des mesures annoncées et de l’importance des sommes investies.
Dans son allocution, le président du Conseil du Trésor du Québec, Christian Dubé, un insistant sur «l’agilité et la flexibilité» ne fera pas preuve du gouvernement pour faciliter le démarrage et la réalisation de ces projets. À première vue, cela peut paraître raisonnable en ces temps de crise. Mais il y a des risques pour l’intégrité de nos marchés publics. Cette agilité et cette flexibilité ne doivent pas ouvrir la porte aux malversations et aux abus de la partie d’entrepreneurs, dirigeants, élus ou fonctionnaires.
Le président du Conseil du Trésor, Christian Dubé, répond aux questions de l’Opposition, le 9 juin, à l’Assemblée nationale. Lors de la présentation du projet de loi, il a insisté sur l’agilité et la flexibilité. LA PRESSE CANADIENNE / Jacques Boissinot
Pourtant, c’est bien ce risque qui se profil à l’horizon avec le projet de loi 61. Le gouvernement a choisi la voie de la précipitation et de la concentration du pouvoir.
C’est 202 projets qui sont visés par l’initiative gouvernementale et qui voient le jour dans les deux prochaines années. Ou, pour les réaliser, le gouvernement entend se donner le pouvoir de modifier ou de suspendre à sa guise, par simple règlement, les règles qui sont prévues à la Loi sur les contrats des organismes publics
On s’en doute, la révision n’ira pas dans le sens de renforcer les mesures de prévention, de surveillance et de contrôle des marchés publics. C’est plutôt le contraire qui est recherché. Le projet de loi, dans sa mouture initiale avec l’article 50, entendait permettre une révision à la baisse des règlements qui s’appliquent en matière de contrats publics pour ses propres ministères – au premier chef, au ministère des Transports – ainsi que pour les contrats conclus dans les municipalités.
Malgré les nouveaux amendements déposés, il continuait de rendre possible une diminution des exigences réglementaires pour les contrats en milieu municipal. Les objectifs du projet de loi en matière de marchés publics ne sont donc pas abandonnés. Les risques manifestés bien réels.
Les règles du jeu en matière de contrats publics visent à garantir une fois une certaine équité entre les entreprises désireuses d’obtenir ces contrats, ainsi qu’une utilisation maximale des ressources ne disposent pas de la collectivité pour la réalisation de ces projets. Dès que ces règles sont enfreintes, c’est l’ensemble de la collectivité qui en paie le prix. Cette réalité nous avons été rappelée brutalement par les travaux de la Commission d’enquête sur l’octroi et la gestion des contrats publics dans l’industrie de la construction (CEIC – Commission Charbonneau).
Depuis le dépôt des recommandations de la CEIC, plusieurs mesures légales et réglementaires ont été mises en place afin d’assainir les pratiques d’octroi et de gestion des contrats de nos organismes publics, tant provinciaux que municipaux. Nous n’avons aucun intérêt, collectivement, à admettre le moindre relâchement au niveau de ces pratiques.
Les marchés publics à haut risque
Les travaux académiques et institutionnels portant sur l’identification des marchés publics – notamment ceux de l’OCDE qui font référence en la matière, insistant pour dire que les marchés publics représentent assurément la zone la plus sensible et à risque face à la corruption et les autres pratiques frauduleuses.
Avec de nombreux autres chercheurs, commissions nationales et organisations, l’OCDE identifie une multitude de facteurs mettant en jeu le risque de cette intégrité. Parmi ceux-ci, certains sont davantage à craindre en ce moment: une planification insuffisante des travaux, l’urgence d’agir qui conduit à baisser la garde en matière de prévention, l’action des réseaux de proximité (le copinage et son corolaire , le favoritisme), l’absence de transparence, l’insuffisance des contrôles, l’adoption des procédures accélérées d’attribution des contrats, la faible reddition des comptes des acteurs décisionnels.
Un chantier fermé en raison de la pandémie de Covid-19, au centre-ville de Montréal. Québec entend injecter des sommes importantes dans le secteur de la construction afin de relancer l’économie, mais cela doit se faire avec prudence. Shutterstock
Dans le document «Principes de l’OCDE pour renforcer l’intégration dans les marchés publics», l’Organisation propose d’aligner les systèmes de protection de plusieurs principes qui sont classés en quatre catégories: la transparence; la bonne gestion; la prévention des comportements réprouvés, le respect des règles et la surveillance; ils doivent rendre les comptes et le contrôle.
Au-delà des principes mis de l’avant, la volonté de l’OCDE est de ne rien laisser au hasard dans le processus de passation des marchés publics. En effet, son approche vise à «occuper le terrain» pour éviter que les fonctionnaires soient exposés aux zones grises où il n’y a aucune procédure pour aider à prendre la bonne décision.
Les meilleures pratiques
Les règles et les façons de faire doivent favoriser le traitement équitable de toutes les propositions. Pendant la période de lancement de l’appel d’offres, il faut s’assurer que la concurrence est au rendez-vous et bien gérer toutes les situations de conflits d’intérêts. La diffusion de l’information doit être équitable, c’est-à-dire que l’on arrive toujours à fournir, à toutes les entreprises intéressées par un marché public, les mêmes informations. Il faut également donner un temps raisonnable à ces entreprises pour qu’elles puissent préparer leur proposition. Idéalement, un mécanisme de dénonciation des diverses formes d’irrégularités est à prévoir.
Ce ne sont que quelques exemples de ce que doit prendre en considération un gouvernement soucieux d’éthique et d’intégrité des marchés publics.
Le gouvernement devrait donc retirer, ou revoir en profondeur, son projet de loi 61. S’il entend injecter des sommes importantes dans le secteur de la construction afin de relancer l’économie, cela doit se faire avec prudence et en considération des meilleures pratiques documentées dans le domaine des contrats publics. Dans le dernier état des amendements proposés, les risques encourus majeurs.
Dans un souci de prévention des malversations, le gouvernement doit encourager l’ensemble des fonctionnaires appelés à intervenir dans l’octroi et la gestion des contrats publics à faire preuve d’une vigilance s’accumuler et mettre à leur disposition les moyens leur permettant de se faire faire entender. Ce n’est pas le moment de baisser la garde. L’intégrité des marchés publics n’est jamais un acquis définitif. La vigilance s’impose.



L’air chaud dans la montgolfière


Influencés par un arc-en-ciel d’orbes ambulantes portées par des jets enflammés et côtoyant la brise d’Albuquerque, Kai et Hunter Wilson se dépêchent de parapher leur montgolfière particulière. Pas un véritable ballon chauffant, évidemment. Les jeunes frères peuvent travailler dans un environnement en altitude, une petite gondole arrêtée sous un ballon d’hélium dans le 7-11 Balloon Discovery Center, exactement là où le trafic ciblé vers la Albuquerque Worldwide Balloon Fiesta peut tester les concepts technologiques propulsant la montgolfière. « Nous arrivons chaque année depuis environ 7 années, ce qui est certainement ma partie préférée, » déclare leur mère, Marina Wilson, faisant signe pour le ballon en lévitation au-dessus de l’esprit de son fils. « Cette connexion avec tous les jeunes en vaut la peine. » Depuis près de 50 ans, la fête annuelle des montgolfières a captivé des millions de visiteurs du site Web du Territoire de l’enchantement pour voir la plus grande ascension au monde de montgolfières. Dernièrement, la fiesta est devenue un événement académique, enseignant aux invités les sciences de l’atmosphère – un sujet difficile à comprendre, disent les scientifiques, montgolfière Niort mais qui est certainement de plus en plus vital que vous comprenez au milieu du changement climatique. «[Le milieu de l’invention] découle de l’ensemble de l’approche académique qui consiste à essayer d’intéresser les enfants à la recherche et de s’assurer qu’ils savent qu’il y a certainement de la science derrière le ballon», affirme Barbara Fricke, membre du conseil d’administration de la fiesta. Elle dit que le milieu s’est beaucoup élargi récemment. «Auparavant, c’était un ballon plus ancien que les gens pouvaient mettre sur le tas, et maintenant ils essaient d’enseigner», explique Mme Fricke. Pour fêter les festivités, les aviateurs ont lancé des ballons dans plus de 100 universités élémentaires de la région, ajoutant des individus à la science juste derrière le ballon. En plus de la fête de 9 jours, les clients peuvent visiter le centre révolutionnaire pour savoir exactement ce qui rend Albuquerque parfait pour la montgolfière. À l’intérieur du centre de recherche contextuel, les visiteurs cataloguent des expériences dans des manuels de «passeport». L’année dernière, la tente a commandé 10 000 passeports, affirme George Carrillo Jr., membre du personnel. Ils se sont épuisés avant la fin de la semaine. «La majeure partie [des invités] sont des enfants», explique M. Carrillo, «mais y compris les adultes reviennent et disent:« Nous avons beaucoup réfléchi à la recherche scientifique ».» Un grand nombre de spectateurs tiennent un air collectif comme test ballon monte pour tester les conditions de voyage pour d’innombrables ballons couchés mou dans la pelouse. Parce que le soleil grandissant commence à convertir la pastèque de Sandia Hills en rose, le ballon d’essai signale au personnel au sol de lever un drapeau vert. Les amis poussent un soupir de réduction – leur système d’alarme de réveil à 5 ​​heures du matin (ou avant) en valait le coût. Les ballons voleront aujourd’hui. Les pilotes d’avion vont simplement monter dans des problèmes idéaux. Heureusement pour les montgolfières locales, la vallée du Rio Grande accueille un rare confluent de vent, de températures et d’aridité chaque octobre, offrant à Albuquerque le surnom de «l’argent du monde en montgolfière». Étant donné que les pilotes d’aéronefs en ballon ne pouvaient gérer que la direction verticale du ballon, ils comptent sur les courants de vent pour aller horizontalement. Les ballons commencent juste après le lever du soleil, une fois que l’atmosphère est froide, le ciel est apparent, le vent est calme et ils possèdent également la meilleure probabilité de localiser la tendance météorologique appelée paquet Albuquerque. « Il y a ce flux sanguin que les aéronautes aiment vraiment et qui ne s’installe qu’une ou deux fois tout au long de la période de la fête des ballons », déclare David Gutzler, climatologue à l’université ou au collège du dernier Mexique à Albuquerque.



Une exigence de 25 % de fonds propres pour les banques ?


Il est largement admis que la protection des banques par les pouvoirs publics a contribué à la crise financière, ce qui a conduit à des propositions visant à exiger des banques qu’elles financent une part plus importante de leurs portefeuilles par des fonds propres plutôt que par des dettes – obligeant ainsi les actionnaires à absorber les pertes au lieu des contribuables. Cette colonne fait valoir que ce sont les ratios de fonds propres par rapport au risque des actifs qui importent, et non les ratios de fonds propres en soi. Bien que des exigences plus élevées en matière de fonds propres pour les banques puissent être souhaitables, les coûts de la réduction de l’offre de prêts devraient être pris en compte.
Le professeur Allan Meltzer a dit en plaisantant que le capitalisme sans échec est comme une religion sans péché ». Si certaines entreprises sont protégées de la faillite lorsqu’elles ne peuvent pas payer leurs factures, la concurrence est faussée et favorise les entreprises inefficaces et protégées. Les banques dont les dettes sont garanties par l’État bénéficient d’un avantage injuste qui leur permet de répartir les fonds de manière inefficace, de prendre des risques inconsidérés aux dépens des contribuables et de gaspiller des ressources qui seraient mieux utilisées par des entreprises ne bénéficiant pas d’une telle protection.
La crise financière de 2007-2009 n’est pas la première à illustrer le fait que les systèmes bancaires protégés ont tendance à exploser, imposant des pertes énormes aux contribuables qui doivent payer la facture. Rien qu’au cours des trois dernières décennies, plus d’une centaine de crises bancaires majeures ont eu lieu dans le monde (Laeven et Valencia, 2012). Aucun sujet d’économie financière n’a fait l’objet d’un consensus plus clair parmi les chercheurs que la proposition selon laquelle la protection des banques par les pouvoirs publics a contribué à la récente vague de faillites bancaires coûteuses dans le monde – des faillites d’une ampleur sans précédent.
Le récent ouvrage d’Anat Admati et Martin Hellwig, The Bankers’ New Clothes (Princeton 2013), propose de forcer les banques à maintenir une part beaucoup plus importante de leur financement sous forme de capitaux propres plutôt que de dettes, de sorte que les actionnaires des banques plutôt que les contribuables supportent la majeure partie ou la totalité du risque de baisse des pertes bancaires. Dans leur zèle bien intentionné pour démontrer à quel point il serait bénéfique, simple et sans coût d’imposer une augmentation spectaculaire des ratios de fonds propres des banques, Admati et Hellwig surestiment les avantages et sous-estiment les coûts associés à la réforme proposée.
Ratios de fonds propres comptables contre les véritables ratios de fonds propres pondérés en fonction des risques
Admati et Hellwig affirment que pour obtenir une augmentation crédible de la proportion de fonds propres des banques, il suffit d’augmenter les exigences réglementaires minimales pour le ratio de la valeur comptable des fonds propres par rapport aux actifs. Si seulement c’était aussi simple, mais ce n’est pas le cas ; l’augmentation du ratio de la valeur comptable des capitaux propres au sens comptable n’augmente pas nécessairement les véritables ratios de capital des banques, comme je l’ai soutenu dans mon travail récent (Calomiris 2013). Les bilans bancaires ne rendent pas compte d’une grande partie des pertes économiques que les banques peuvent subir. En outre, les pratiques comptables peuvent dissimuler l’ampleur des pertes sur prêts, et les régulateurs désireux d’éviter les crises de crédit sont souvent complices de cette situation. Il en résulte que les véritables ratios de fonds propres des banques peuvent être bien inférieurs à ce que leur valeur comptable indique. En outre, les choix des banques en matière de risque importent, et pas seulement leurs fonds propres. L’approche de Bâle sur la pondération des risques des actifs et l’approche plus simple préconisée par les auteurs (qui abandonnerait toute pondération des risques en faveur d’une simple exigence de fonds propres par rapport aux actifs) ont toutes deux un défaut commun : elles encouragent les banques à poursuivre des augmentations cachées du risque des actifs.
Pour toutes ces raisons, l’augmentation des ratios de fonds propres requis ne se traduit pas nécessairement par une réduction du risque de faillite bancaire. Cela ne signifie pas que les ratios de fonds propres ne sont pas pertinents, mais seulement que le fait d’exiger une augmentation des fonds propres comptables ne se traduit pas, en soi, par une augmentation des fonds propres réels. De même, et surtout, des exigences plus élevées en matière de fonds propres ne garantissent pas que les banques auront des fonds propres plus élevés par rapport à leur risque, ce qui est l’objectif essentiel de la réforme réglementaire envisagée par Admati et Hellwig.
Admati et Hellwig soutiennent également que l’augmentation du ratio de financement par capitaux propres dans la structure du passif des banques a peu ou pas de coûts sociaux. Ils rejettent la possibilité que des exigences plus élevées en matière de fonds propres pour les banques puissent être socialement coûteuses comme une bête noire… aussi insignifiante que les nouveaux vêtements de l’empereur dans le conte d’Andersen ». Les auteurs poursuivent en disant : « Pour la société, il y a en fait des avantages significatifs et essentiellement aucun coût à des exigences de fonds propres beaucoup plus élevées ». Une telle politique permettrait de résoudre le conflit fondamental entre ce qui est bon pour les banques et ce qui est bon pour l’économie au sens large. »
Coût des fonds propres par rapport aux rendements corrigés du risque
Ces déclarations ne représentent pas les résultats de décennies de recherche englobant des dizaines de contributions théoriques et empiriques dans la littérature bancaire et financière des entreprises. Le principal tour de passe-passe académique effectué par les auteurs, qui est à la base de ces déclarations, consiste à concentrer l’attention uniquement sur les rendements ajustés au risque attendus par les investisseurs lors de l’examen des coûts ajustés au risque pour les banques de leurs choix en matière de structure du capital. Admati et Hellwig assimilent à tort les deux. Le coût des fonds propres, affirment les auteurs, correspond essentiellement aux rendements que les sociétés doivent fournir aux actionnaires pour justifier l’argent qu’elles ont reçu d’eux ». Mais pour les banques qui émettent ces capitaux propres, il est presque certain qu’il y a d’autres coûts (et avantages) importants associés aux choix de structure du capital qui ne sont qu’indirectement liés aux rendements attendus et reçus par les investisseurs. C’est pourquoi le coût de l’émission d’actions pour une banque et le rendement attendu par les investisseurs en actions qui achètent la nouvelle offre ne sont généralement pas les mêmes.
Il a été démontré que les différences entre les rendements attendus par les investisseurs et les coûts de financement des entreprises impliquent qu’il existe, en général, une combinaison optimale de dettes et de capitaux propres pour chaque banque (ou toute autre entreprise), qui reflète une variété de considérations. Une catégorie de modèles se concentre sur l’effet de la déductibilité des paiements d’intérêts sur la combinaison optimale de dettes et de capitaux propres – les entreprises mettent en balance l’avantage fiscal de la dette et la valeur préservée en détenant plus de capitaux propres et en limitant ainsi le risque de détresse financière. Une autre catégorie de modèles de « signalisation » considère comment l’émission d’actions peut avoir des effets négatifs sur les perceptions du marché des opportunités d’investissement des entreprises, et conduire les émetteurs à éviter les offres d’actions plus qu’ils ne le feraient autrement. Dans une autre classe de modèles encore, le choix de la bonne combinaison de dettes et d’actions conduit à des transferts efficaces de contrôle aux créanciers dans certains états du monde, ce qui encourage également la diversification du portefeuille et la révélation véridique des résultats de l’investissement, ce qui réduit les coûts de financement. Dans une quatrième catégorie de modèles, la bonne combinaison de capitaux propres et de dettes peut inciter à une gestion plus efficace des risques, ce qui réduit également les coûts de financement. Enfin, dans le contexte bancaire, l’émission de titres de créance à court terme et à très faible risque, combinée à des fonds propres suffisants, peut procurer des avantages non pécuniaires en termes de liquidité aux détenteurs de la dette (en particulier les déposants), ce qui augmente la demande de dette et permet aux banquiers d’économiser sur les coûts de financement.
Coûts des exigences plus élevées en matière de fonds propres des banques
La discussion d’Admati et Hellwig sur les coûts de financement des banques et la structure du capital ne reconnaît que deux avantages du financement par l’emprunt : la déductibilité fiscale des intérêts et les distorsions du filet de sécurité découlant des garanties gouvernementales qui réduisent effectivement les coûts de la dette subordonnée des banques ainsi que les dépôts. Ils soutiennent que l’élimination de ces avantages du financement par l’emprunt est souhaitable. Cette affirmation néglige des preuves empiriques substantielles qui vont dans le sens d’autres influences, comme les modèles de signalisation. Mais même si le traitement fiscal privilégié de la dette et les subventions au titre du filet de sécurité étaient les seuls facteurs favorisant le financement par l’emprunt, et même si l’on pouvait affirmer, à partir d’une analyse coûts-avantages sociaux, qu’il serait souhaitable de supprimer les subventions au titre du filet de sécurité et la déductibilité fiscale des intérêts, il ne s’ensuit pas que cela ne coûte rien.
Une implication importante des différents modèles de structure optimale du capital est que le fait de forcer les banques à augmenter leur ratio de fonds propres par rapport à leurs actifs réduira généralement la volonté des banques de prêter. Un grand nombre d’études ont montré que, lorsque les banques doivent augmenter leur ratio fonds propres/actifs, elles choisissent souvent de le faire en réduisant les nouveaux prêts, ce qui évite de devoir lever de nouveaux fonds propres et les coûts élevés qui y sont associés. Par exemple, une étude récente de la réaction de l’offre de prêts aux augmentations des ratios de fonds propres requis au Royaume-Uni indique qu’une augmentation d’un point de pourcentage des ratios de fonds propres requis réduit l’offre de prêts aux entreprises non financières nationales d’environ 7 % (ce qui implique une élasticité de l’offre de prêts d’environ 0,7 négatif).
La réduction de l’offre de prêts qui résulte de l’augmentation des ratios de fonds propres n’est pas seulement un coût ponctuel. Un ratio de fonds propres plus élevé signifie qu’à mesure que le système bancaire se développe, un pourcentage plus important des fonds propres des banques devra être levé à l’extérieur plutôt que par la rétention des bénéfices. Comme il est coûteux de mobiliser des capitaux extérieurs (en grande partie à cause des coûts de signalisation et d’agence mentionnés plus haut), les banques seront confrontées à des coûts de financement plus élevés en permanence, ce qui réduira en permanence l’offre de prêts par rapport à un monde où les exigences en matière de ratio de fonds propres sont plus faibles.
Trouver la bonne exigence de fonds propres bancaires
L’existence de coûts sociaux associés à des exigences de fonds propres plus élevées n’exclut pas le caractère souhaitable d’une augmentation substantielle de ces exigences. En effet, la plupart des économistes (moi y compris) seraient prêts à accepter une certaine réduction de l’offre de crédit en échange des avantages d’une plus grande stabilité financière, en particulier compte tenu des faibles ratios de fonds propres que les banques maintiennent actuellement.
Quel est le bon ratio de fonds propres à cibler, et sur quoi repose le ratio de 25 % des fonds propres par rapport aux actifs proposé par Admati et Hellwig ? Après tout, s’ils croyaient vraiment à leur argument selon lequel l’augmentation du ratio de fonds propres ne peut jamais avoir de coût, alors pourquoi ne pas préconiser un ratio de fonds propres de 100% ?
Le principal fondement de la recommandation d’Admati et Hellwig d’un ratio de 25% est leur opinion selon laquelle l’expérience historique montre qu’avant la protection du filet de sécurité, les banques maintenaient ce niveau de ratios de fonds propres. Mais Admati et Hellwig sont trop désinvoltes lorsqu’ils font ces comparaisons historiques, et ils omettent de noter certaines différences importantes entre les banques d’alors et d’aujourd’hui. Les ratios de fonds propres des banques, tant aux États-Unis qu’à l’étranger, ont varié considérablement dans le passé et n’ont généralement pas atteint 25 % des actifs. Certains des systèmes bancaires les plus stables – celui du Canada, par exemple – ont eu des ratios de fonds propres relativement faibles. Les faibles ratios de fonds propres des banques canadiennes à succursales nationales reflétaient la plus grande diversification de leur portefeuille et d’autres caractéristiques réduisant le risque, contrairement aux banques à bureau unique (unités) beaucoup plus risquées aux États-Unis. Les ratios de fonds propres des banques américaines ont varié de façon spectaculaire au fil du temps, et d’une manière qui a clairement reflété les changements dans le risque de leurs actifs. Les ratios de fonds propres par rapport au risque des actifs sont l’attribut clé de la réglementation prudentielle, et non les ratios de fonds propres en soi. L’utilisation de simples ratios d’équité historiques d’un certain exemple passé comme référence, sans tenir compte du risque, peut considérablement surestimer ou sous-estimer la mesure dans laquelle les ratios d’équité actuels des grandes banques mondiales devraient être augmentés.



Aux origines de l’aviation


Avant même de voler, le premier problème qui s’est posé à l’homme désireux d’imiter les oiseaux a été celui de quitter le sol. La légende cède peu à peu la place à l’histoire et, après les livres saints de toutes les religions, dont certains sont de véritables « volières », les textes des chroniqueurs apportent quelque précision sur les « mécanismes ingénieux » capables de faire voler l’homme. Aristote et Galien se penchent sur le problème, Aulu-Gelle décrit la fameuse colombe d’Archytas et les poètes célèbrent le malheureux Icare, tandis que les mathématiciens s’intéressent davantage à son père, l’inventeur Dédale.

Accrochés à des oies, des condamnés à mort sont précipités du haut des falaises ; d’autres, des ailes sur le dos, s’élancent de points élevés, tours et collines, font quelques battements et tombent ou atterrissent un peu plus loin et un peu plus bas que leur point de départ. Beaucoup y laissent leur vie. L’histoire retient parfois leur nom.

Vers 1500, Léonard de Vinci, le premier, étudie scientifiquement le problème. Des pages et des pages d’écriture, plus de quatre cents dessins l’attestent : le Florentin a pressenti l’hélicoptère, le parachute. On dit même qu’il aurait essayé un planeur en vraie grandeur.

Au XVIe siècle, l’Anglais Bate introduit en Europe la mode du cerf-volant, empruntée aux anciens Chinois. Guidotti, Burattini, Allard sont les héros de tentatives malheureuses. En 1673, on signale un serrurier du Mans, Besnier, qui, avec des surfaces à clapets, aurait réussi à voler. En 1742, le marquis de Bacqueville aurait parcouru quelque trois cents mètres au-dessus de la Seine, à Paris.

En 1783, la découverte de l’aérostat par les frères Montgolfier suscite un engouement tel pour les « globes » que les recherches sur les appareils plus lourds que l’air seront suspendues et vont prendre un certain retard. Blanchard, Resnier de Goué, Degen, Berlinger (deux Français, un Suisse, un Allemand) proposeront bien quelques solutions et tenteront même quelques expériences en vol, mais il faudra attendre la fin du XVIIIe siècle pour trouver celui que les Anglais ont appelé « l’inventeur de l’aéroplane », sir George Cayley. En 1796, reprenant les travaux des Français Launoy et Bienvenu, il construit un hélicoptère. En 1799, il grave sur un disque d’argent la représentation des forces aérodynamiques sur un profil d’aile. En 1808, il dessine un « ornithoptère » à l’échelle de l’homme. En 1809, il construit un planeur qui vole (sans passager). En 1843, il dessine le premier modèle de « convertiplane » et, en 1849, construit un planeur qui aurait été expérimenté avec un passager.

Vers la même époque, deux autres Anglais, Henson et Stringfellow, furent bien près de trouver la solution. Si l’Ariel, dont nous possédons de très nombreuses gravures publiées à l’époque, ne fut jamais construit, il n’en reste pas moins que Stringfellow, continuant les travaux de Cayley et de Henson, fit voler pour la première fois dans l’histoire un modèle réduit d’aéroplane à vapeur.

C’est en 1856, avec le Français Jean-Marie Le Bris, que les premiers essais de planeur avec passager ont lieu, et c’est encore avec lui, en 1868, que sera prise la première photographie d’un « plus lourd que l’air », en vraie grandeur.

En 1862, on aura noté l’invention du mot « aviation » par Gabriel de La Landelle, le lancement de la campagne de la « sainte hélice » par Nadar et la construction, par Ponton d’Amécourt, d’un hélicoptère à vapeur, première application de l’aluminium au plus lourd que l’air.

Depuis Cayley, l’attention des chercheurs a été attirée sur l’importance des données aérodynamiques. Un pas décisif sera fait dans ce domaine par un autre Anglais, Wenham, Vol L-39 qui construira le premier « tunnel » (on dira « soufflerie » par la suite) pour l’expérimentation des maquettes. La notion d’essai systématique apparaît, remplaçant bientôt les tâtonnements.

En France, Pénaud et Gauchot proposent en 1876 un aéroplane avec train escamotable, hélices à pas variable, gouvernes compensées et commande unique pour la profondeur et la direction.

D’autre part, vers 1874, le Français Félix du Temple parvient à lancer son aéroplane à vapeur le long d’un plan incliné, avec un jeune marin à bord. Mais pour qu’il y ait décollage, il ne faut ni plan incliné ni moyen additionnel (catapulte, contrepoids), et, pour qu’il y ait vol, il faut : trajectoire soutenue, dirigeabilité, enfin atterrissage à un niveau au moins égal à celui du point de départ.

Nous arrivons à la fameuse controverse relative au premier vol de l’histoire : Clément Ader a-t-il volé le premier, le 9 octobre 1890 au château d’Armainvilliers ou le 14 octobre 1897 à Satory ? Les témoignages que l’on cite à l’appui sont-ils valables ? Si l’on répond par la négative à la première question, c’est aux frères Wright, disent les Américains, qu’il faut attribuer l’exploit, réalisé le 17 décembre 1903 à Kitty Hawk, en Caroline du Nord. Les historiens sont partagés. Aucun procès-verbal officiel n’a été établi sur le moment, ni pour l’un ni pour l’autre de ces vols. Il est certain dans les deux cas qu’il y a eu « soulèvement ». Peut-on dire qu’il y a eu vol soutenu du fait du moteur ? En tout cas, il n’y a pas eu virage. C’est le 15 septembre 1904 seulement que l’on voit apparaître dans les carnets des frères Wright la notion de « demi-cercle ». Il convient également de se replacer à l’époque : on constate alors que les constructeurs, aussi bien Ader que les frères Wright, tenaient à entourer leur invention du plus grand secret. Ce n’est que bien plus tard, au bout de quelques années, que se firent jour les déclarations d’antériorité. Entre 1890 et 1905, le public, pour passionné d’aviation qu’il fût, était assez mal informé des expériences précises de nos précurseurs. C’est aujourd’hui seulement, avec un certain recul, que nous avons en main les données du problème : travaux d’Ader, des frères Wright, mais également recherches et expériences de Mojaïski en Russie, de Maxim en Angleterre, de Jatho en Allemagne, de Kress en Autriche, de Langley aux États-Unis. Tous ceux que nous venons de citer ont essayé de décoller avec un moteur, mais cela ne doit pas faire oublier les noms de ceux qui ont fait faire de grands progrès à l’aviation au moyen du planeur : c’est en premier lieu l’Allemand Lilienthal, puis l’Écossais Pilcher, les Américains Montgomery et Maloney, les Français Ferber, Charles et Gabriel Voisin. Il ne faut pas oublier non plus les expériences de Hargrave en Australie, avec ses cerfs-volants cellulaires, et les études sur le vol des oiseaux des Français Mouillard et Marey. Il faut enfin se rappeler qu’il s’en est fallu de bien peu pour qu’un autre Américain, Langley, décollât avant les frères Wright, si ses expériences sur le Potomac avaient été couronnées de succès le 8 décembre 1903.



Fake News, analyse erronée et tweets faux


De temps en temps, Angry Bear a présenté Steve Hutkins, (Save The Post Office Blog) et Mark Jamison (retraité NC Postmaster), commentant les efforts de divers intérêts politiques et commerciaux pour fermer le United States Postal Service et le céder à comme UPS, FedX et d’autres entreprises commerciales. Plus récemment, les commentaires stupides du président Trump sur Twitter ont de nouveau gagné une couverture nationale non méritoire sur Amazon ayant un avantage de coût hypothétique sur l’USPS en utilisant l’USPS pour livrer les commandes d’Amazon 7 jours par semaine. Steve conteste les commentaires du président Twitter et une analyse CitiGroup de la relation Amazon – USPS. Continuer à lire
Seuls les imbéciles, ou pire, disent que notre bureau de poste qui perd de l’argent gagne de l’argent avec Amazon. ILS PERDENT UNE FORTUNE, et cela sera changé. De plus, nos détaillants entièrement taxables ferment des magasins dans tout le pays… pas des règles du jeu équitables!
Il y a quelques jours, ses tweets étaient plus précis:
Bien que nous soyons sur le sujet, il est rapporté que le bureau de poste américain perdra 1,50 $ en moyenne pour chaque colis qu’il livre pour Amazon. Cela équivaut à des milliards de dollars…. Si le P .. «augmentait ses tarifs de colis, les frais d’expédition d’Amazon augmenteraient de 2,6 milliards de dollars». Cette arnaque du bureau de poste doit cesser.
Les attaques étaient dans la même veine que ses tweets précédents en décembre. Ils sont apparemment basés sur un éditorial du Wall Street Journal de Josh Sandbulte et publié en juillet dernier. Sandbulte a affirmé que chaque colis d’Amazon recevait une subvention de 1,46 $;
C’est comme une carte-cadeau de l’oncle Sam.
Comme l’a noté Jen Kirby chez Vox, Sandbulte est un gestionnaire de fonds qui travaille pour une entreprise détenant des actions FedEx, mais cela peut ou non être pertinent, car toute personne investie dans des fonds communs de placement possède probablement de FedEx. En tout cas, il n’a pas inventé l’idée de subvention. Il est issu d’une analyse réalisée par Citigroup en avril 2017.
La thèse du rapport Citigroup est que les contribuables paient essentiellement pour la livraison gratuite offerte par Amazon. Comme l’écrivent les analystes de Citi, dans cette note, nous examinons la véritable rentabilité de la poste et montrons qu’en facturant en dessous des taux du marché sur le volume des colis (principalement le commerce électronique), la poste a essentiellement transformé la livraison gratuite en un fardeau pour les futurs contribuables.  »
Il est à noter que le rapport Citigroup est destiné à conseiller les investisseurs en bourse. Selon lui, un jour de calcul « arrive quand le service postal devra mettre en œuvre une augmentation significative des tarifs d’expédition, et cela fournira une grande opportunité de revenus » pour les concurrents du service postal, FedEx et UPS – quelque chose de l’ordre de 15 $ à 19 milliards de dollars de revenus supplémentaires par an. Selon eux, cela soutient la hausse des deux actions. »
Le rapport Citigroup est un peu moins optimiste sur Amazon, car il devra supporter le poids des augmentations de taux de la part du service postal et de FedEx et UPS, qui seront en meilleure position pour augmenter les tarifs eux-mêmes. Selon le pire scénario des analystes, ”Amazon devra payer 2,6 milliards de dollars par an en frais d’expédition supplémentaires.
Comme le montre de plus près le rapport Citigroup, les arguments en faveur d’une énorme augmentation des tarifs des services postaux sur les colis sont sérieusement viciés, et le rapport ne fournit aucune preuve pour les tweets de Trump que la Poste perd une fortune sur l’accord d’Amazon.
Avant d’arriver au rapport Citigroup, il sera utile de présenter quelques faits de base sur les types de courrier américain, le fonctionnement de la comptabilité postale et le service particulier qu’Amazon utilise. Si vous êtes familier avec tout cela, vous pouvez aller droit au but et aller à la section (Partie 2) sur l’analyse Citigroup.
Un guide postal
En 2006, la Loi sur la responsabilité et l’amélioration des services postaux (PAEA) a divisé les produits et services postaux en deux catégories, dominante sur le marché et concurrentielle.
Les produits et services dominants sur le marché sont ceux dans lesquels le service postal domine le marché »en raison de ses deux monopoles – le monopole des lettres, qui confère au service postal un monopole sur le courrier de première classe non urgent, et le monopole des boîtes aux lettres, qui donne le service postal le droit exclusif de mettre du courrier dans des boîtes aux lettres. Le marché dominant comprend les services de première classe, standard (principalement des courriers publicitaires) et périodiques, ainsi que certains types de courrier international. Selon le rapport USPS 2017 10-K, Market Dominant représente environ 70 pour cent (50 milliards de dollars) des revenus totaux (70 milliards de dollars) et environ 95 pour cent des volumes totaux (150 milliards de pièces)
Le courrier concurrentiel comprend les services d’expédition comme le courrier prioritaire, les colis et certains autres types de courrier international. Son nom vient du fait qu’il existe des concurrents dans le secteur privé pour ces types de produits. Les produits concurrents représentent 29% (20 milliards de dollars) du total des revenus USPS et environ 5% des volumes.
Les tarifs du courrier dominant sur le marché sont limités par la réglementation par plafonnement des prix, qui limite les hausses tarifaires d’une catégorie de courrier à l’indice des prix à la consommation. Les tarifs sur les produits concurrents sont essentiellement limités par le marché, mais le service postal est libre de fixer les prix comme bon lui semble, sous réserve de l’approbation de la Commission de réglementation postale, tant que les produits couvrent leurs coûts, ne sont pas interfinancés par les produits dominants sur le marché et apporter une contribution appropriée aux coûts institutionnels. En d’autres termes, les tarifs ne peuvent pas être trop bas.
Les expressions couvrant leurs coûts « et leur contribution aux coûts institutionnels » se réfèrent à la manière dont le service postal analyse les coûts de chaque produit et service. Comme dans toute entreprise, pour chaque produit, il existe deux types de coûts, variables et fixes.
Les variablecosts sont ceux associés directement et indirectement à un produit ou service spécifique, et ils changent en fonction du volume. Le service postal appelle ces coûts imputables
Les coûts fixes comprennent les salaires, le loyer des bureaux de poste loués et tous les autres frais généraux qui restent les mêmes quel que soit le volume géré par le service postal. Le service postal appelle ces coûts institutionnels
Pour chaque produit et service, le service postal détermine les coûts variables qui peuvent être attribués à ce produit; quels que soient les revenus apportés au-delà, cela est considéré comme une contribution aux coûts institutionnels.
La couverture des coûts d’un produit ou d’un service est déterminée en divisant les revenus de l’unité par le coût attribuable. Une couverture des coûts de 100% signifie que le produit a couvert tous ses coûts imputables mais n’a rien contribué aux coûts institutionnels. Idéalement, un produit aura donc une couverture des coûts supérieure à 100%, de sorte qu’il peut contribuer quelque peu aux frais généraux fixes du service postal.
Enfin, il y a les accords de service négociés, c’est-à-dire les contrats entre le service postal et les expéditeurs individuels qui fournissent des prix personnalisés et d’autres arrangements. Pour des raisons commerciales, les détails de ces accords ne sont pas dévoilés au public, mais chaque ANE doit être approuvée par la RPC avant son entrée en vigueur, puis une fois par an dans le cadre d’un examen visant à garantir que l’accord est toujours conforme aux loi.
Il existe actuellement plusieurs centaines de NSA en vigueur, dont 846 accords nationaux concurrentiels, dont la taille et la portée varient largement. Au moins un, peut-être plusieurs d’entre eux, couvre les accords entre Amazon et le service postal.
Examen annuel de la conformité du COREP
Le COREP procède à un examen annuel de la détermination de la conformité (ACDR) pour s’assurer que tous les produits et services fournis par le service postal sont conformes aux lois régissant les questions postales. De manière générale, l’examen détermine si les coûts engagés par chaque produit et service sont couverts par les revenus générés par ce produit ou service.
L’examen de conformité examine donc la façon dont chaque type de courrier – y compris chaque ANS – fait en ce qui concerne la couverture des coûts, c’est-à-dire dans quelle mesure il couvre les coûts attribuables et combien il contribue (ou ne contribue pas) aux coûts institutionnels. .
La Commission examine également dans quelle mesure le courrier concurrentiel dans son ensemble contribue aux coûts institutionnels pour s’assurer que le service postal n’utilise pas les produits dont il a le monopole pour subventionner injustement des produits pour lesquels il existe une concurrence du secteur privé.
En l’occurrence, la RPC a publié la semaine dernière le rapport annuel de détermination de la conformité de 2017. La loi exige que chaque produit NSA national concurrentiel couvre ses coûts attribuables. La Commission a noté que tous les ANE nationaux compétitifs sauf quatre couvraient leurs coûts imputables et se conformaient à cette exigence légale »(p. 84). Trois de ces NSA ont expiré ou ont été résiliés, et le quatrième (un contrat de courrier prioritaire qui n’est certainement pas le NSA d’Amazon) est surveillé en attendant une réévaluation.
Le rapport de conformité de la RPC signifie que la RPC a examiné le ou les contrats Amazon et a déterminé qu’ils couvraient effectivement leurs coûts imputables. Ils ne perdent pas d’argent pour le service postal.
Amazon NSA et Parcel Select
Bien que nous connaissions très peu les détails du ou des contrats d’Amazon avec le service postal, nous savons que la plupart des colis livrés par le service postal d’Amazon relèvent de la catégorie appelée Parcel Select.
En 2013, lorsque le service postal a annoncé qu’il effectuait la livraison le dimanche pour Amazon Prime, nous avons pu localiser la NSA dans le dossier PRC CP2014-1 et confirmer qu’il s’agissait d’un produit Parcel Select. Vous pouvez voir l’accord ici, mais il est presque entièrement expurgé.
Selon la description USPS, le service Parcel Select offre des prix très compétitifs. Il est souvent utilisé par d’autres sociétés de colis privées pour achever la livraison du «  dernier kilomètre  » pour leurs expéditions – en particulier pour les livraisons dans les zones non métropolitaines ou rurales, car le service postal est le seul transporteur à proposer la livraison à toutes les portes 6 jours par semaine. .  »
Les plus grands utilisateurs de Parcel Select sont Amazon, FedEx et UPS. Ils ont déterminé que l’utilisation du service postal pour le dernier kilomètre »(du bureau de poste au domicile ou à l’entreprise) est beaucoup plus rentable que d’essayer de livrer à des millions d’adresses elles-mêmes.
Au cours de l’exercice 2016, selon un article de DC Velocity, environ 2,5 milliards de colis ont été déplacés sous Parcel Select. Amazon était responsable d’environ 1 milliard de colis; FedEx (via son produit SmartPost ”) a utilisé USPS pour 600 millions de pièces, et UPS (via SurePost”) a demandé à USPS de livrer environ 275 millions de pièces de Parcel Select. Le reste provient de plusieurs groupeurs de colis qui regroupent les colis de plusieurs petits expéditeurs.
Parcel Select prend généralement de deux à neuf jours, mais les gros expéditeurs, consolidateurs et expéditeurs privés préparent et trient les colis et les livrent à l’unité de livraison de destination (DDU) – généralement votre bureau de poste local – ou à une installation de traitement régionale, économisant ainsi beaucoup de temps et d’argent.
Si les expéditeurs acheminent les colis au DDU avant une certaine heure – Early Bird DDU – le service postal peut souvent assurer la livraison le jour même. DDU régulier – déposer les colis après le départ des transporteurs – signifie généralement une livraison le jour ouvrable suivant.
La capacité du service postal à livrer des colis en deux jours ou moins a été un facteur important dans la croissance de son activité de colis, et il souligne la synergie entre le service postal et ses clients plus importants qui aident à mélanger les colis au bon endroit dans le réseau, étiquetés et triés de la bonne façon.
Étant donné que les utilisateurs de Parcel Select effectuent eux-mêmes une partie du travail, ils ont droit à des remises partagées en fonction des coûts que le service postal évite. Ces remises sont organisées par le biais des ANE non publics, nous ne savons donc pas combien Amazon paie, mais le prix public de Parcel Select est affiché ici. Comme vous pouvez le voir, les prix commencent à 2,85 $ pour un colis pesant une livre ou moins, déposé à un DDU. Les prix augmentent à partir de là, en fonction du poids et de la proximité de la destination.
En raison de sa remise sur le volume, Amazon paie cependant beaucoup moins que cela. Selon un article de Bloomberg, David Vernon, analyste chez Bernstein Research qui suit l’industrie du transport maritime, estime qu’Amazon paie probablement, en moyenne, environ 2 $ par colis. Cette estimation peut également être dérivée de ce rapport financier USPS.Il montre qu’en 2017, Parcel Select a rapporté 5,66 milliards de dollars pour 2,8 milliards de pièces, soit une moyenne de 2 dollars par pièce. L’accord d’Amazon est probablement comparable à l’accord que le service postal a conclu avec UPS et FedEx pour leur livrer le dernier kilomètre.
Comme le montre le tableau des prix de Parcel Select, il existe une large gamme de prix, et les prix sur les colis Amazon varient probablement considérablement, selon la géographie, la période de l’année (vacances) et qui fait la livraison (par exemple, les travailleurs syndiqués ou moins) salariés non syndiqués comme les City Carrier Assistants).
Si Amazon envoie maintenant environ un milliard de colis via le service postal, et si la moyenne est d’environ 2 $ par pièce, la relation rapporte au service postal environ 2 milliards de dollars par an. C’est strictement une supposition approximative – le rapport Citigroup estime l’estimation à 3 milliards de dollars par an – mais cela montre qu’Amazon est devenu une grande partie des activités du service postal.
Soit dit en passant, pour mettre les chiffres en contexte, Amazon aurait expédié environ 5 milliards de colis via Prime dans le monde en 2017, et il dépense environ 20 milliards de dollars par an pour l’expédition.



Comment Amazon et Ebay se jouent des entrepreneurs


Fred Ruckel était un publicitaire. À 25 ans, il a créé sa propre agence et pendant 12 ans, il a développé des publicités pour le Super Bowl, Lays et Pepsi. Mais il ne s’est jamais considéré comme un fou. « J’ai toujours été un inventeur, dit-il. Un bricoleur. Un explorateur. C’était un gars avec des idées mais pas le temps de les poursuivre. Ainsi, en 2011, sa femme, Natasha, lui a fait le cadeau d’une vie : quitte ton travail, a-t-elle dit. Elle couvrirait les factures pendant qu’il construisait une nouvelle carrière. Ruckel est immédiatement allé voir son partenaire commercial et lui a dit : « Je suis sorti. Je vais aller changer ma vie.

Il ouvre un studio de production. Il a versé 30 000 $ dans une application. Il a expérimenté. Et le jour de la Saint-Valentin 2015, alors que sa femme jouait du piano à la maison, il a vu leur chat, Yoda, découvrir un nouveau jouet : un tapis sous la batterie du couple. Il était devenu ondulé et Yoda écrasa les formes amusantes qui en résultaient. Ruckel savait : C’était ça.

Il l’a appelé le tapis Ripple. C’est bêtement simple, comme tous les grands jouets pour chats : il y a un petit tapis, voyez-vous, et ainsi de suite. en haut se trouve un autre tapis. Le tapis supérieur, attaché par Velcro, est plein de trous. Il est conçu pour être un gâchis froissé, agence web Rennes avec des renflements et des tunnels à explorer pour les chats. Bientôt, des centaines de mètres de tapis et de tapis Ripple Rug encombraient la maison de Ruckel. Ainsi, en juin 2015, le couple a fait une autre concession aux inventions : ils ont quitté Manhattan, où ils vivaient depuis 22 ans, et ont déménagé dans le nord de l’État pour s’installer dans une maison qu’ils ont construite comme future maison de retraite. Là, Ruckel aurait vraiment de la place pour inventer.

Ruckel a embauché une usine en Géorgie et a développé un moyen de fabriquer chaque tapis Ripple à partir d’exactement 24 bouteilles recyclées. Le produit a fait ses débuts en septembre et a été mis en ligne sur Amazon en décembre. Les ventes ont rapidement atteint 2 000 $ par jour et il est devenu obsédé par les chiffres. « Amazon est, sans aucun doute, Kickstarter sous stéroïdes », dit-il. « C’est de l’adrénaline. C’est comme du crack — ahhhhhh, toute la journée. » Il y a un autre mot pour ce médicament : validation. Il était enfin un inventeur à succès.

Puis son beau-frère a appelé.

« As-tu voyez que les gens vendent votre tapis Ripple sur eBay ? » il a dit.

Ruckel regarda. C’était vrai. Beaucoup de gens le vendaient – et ne l’utilisaient pas non plus. Ils vendaient de nouveaux tapis Ripple. « Je me dis ‘Oh, mec, qu’est-ce que c’est? Ils ont copié mes trucs !’ », dit Ruckel. « Je me dis, où l’obtiennent-ils ? Est-ce que l’un des gars de mon usine le vend à côté ? Alors j’ai appelé l’usine, et bien sûr j’avais l’air d’un idiot.

L’usine était innocente. Mais alors que Ruckel continuait à creuser, il découvrit la vraie cause. C’est une industrie de personnes qui se transforment en intermédiaires non invités, soit en tant que revendeur, soit, selon votre point de vue, en parasite. Ils volent les supports marketing des marques et gagnent de l’argent avec leurs produits, créant toutes sortes de conséquences pour les petits détaillants comme Ruckel. Et pourtant, ces personnes représentent également une nouvelle réalité difficile pour les entrepreneurs : dans le monde de plus en plus complexe du commerce électronique, tout ce qui concerne une marque – de sa réputation à sa tarification — peut être à gagner.

Pour comprendre ce qui se passe, il est utile de visiter un autre site – l’endroit largement crédité du lancement de cette armée d’intermédiaires : c’est DSDomination.com. Le site, qui dit avoir eu plus de 140 000 utilisateurs, a été lancé en 2013 et a engendré un univers de copieurs. Sur un joyeux ukulélé, un homme dans une vidéo explique son offre : « DS Domination est la première et la seule plate-forme du genre qui permet à l’individu moyen d’exploiter le pouvoir d’entreprises de plusieurs milliards de dollars comme Amazon, eBay et Walmart à la pression de un bouton », dit-il, comme un pitchman d’infopublicité. « En utilisant notre plate-forme unique, tout utilisateur peut générer un revenu en quelques minutes, simplement en copiant et en collant des informations sur les produits d’une entreprise à une autre. »

Internet est, bien sûr, plein de promesses comme celle-ci. Travail à domicile! Devenez riche sans effort ! Si vous avez quelques années de votre vie à perdre, vous pouvez descendre la mère de tous les terriers de lapin en essayant de les comprendre. Qu’il suffise de dire : la plupart comptent sur quelque chose appelé MLM, ou « marketing à plusieurs niveaux » – des schémas pyramidaux, en gros. DS Domination propose un élément MLM, mais son service principal est quelque chose de plus unique : il s’appelle « l’arbitrage Amazon-to-eBay ». Elle vend des logiciels et des stratégies pour rendre cela possible.

Une leçon de langue rapide. L’arbitrage signifie tirer parti des différences de prix entre les marchés : acheter bas à un endroit et vendre haut à un autre. DS signifie « livraison directe », ce qui signifie vendre un produit puis le faire expédier directement du grossiste ou du fabricant. Dans ce monde que DS Domination a suscité, les termes sont utilisés de manière quelque peu interchangeable. Mais les deux jouent un rôle dans la transaction intelligemment complexe qui permet à quelqu’un de vendre le tapis Ripple de Ruckel sur eBay – et, parfois, de gagner plus d’argent que Ruckel lui-même.

Pour voir comment cela fonctionne en temps réel, je vais sur eBay et j’achète un tapis Ripple. Il y a cinq annonces pour le produit ce jour-là, et j’en sélectionne une chez un vendeur appelé AfarAwayGalaxy. Le prix est de 49,51 $ ; sur Amazon, Ruckel le vend 39,99 $. Alors, comment cette liste est-elle arrivée ici ? Il est presque certain que le vendeur utilise une sorte de logiciel, créé par DS Domination ou un concurrent, qui analyse Amazon pour ses produits les plus vendus. (Ils peuvent également le faire sur de grands sites comme celui de Walmart, bien que la plupart semblent se concentrer sur Amazon). Le logiciel a trouvé le Ripple Rug, qui, le jour de juin où je l’achète, est classé numéro 25 dans les jouets pour chats. Ensuite, il a tout copié dans la liste Amazon et l’a collé dans une liste eBay – de manière amusante, jusqu’à la partie de la description du produit qui dit: « Merci d’avoir consulté notre version Amazon du Ripple Rug. »

Le prix est généralement fixé entre 5 et 15 % au-dessus du prix Amazon. Lorsque j’effectue l’achat, la personne derrière AfarAwayGalaxy se rend simplement sur Amazon et achète un tapis Ripple – mais au lieu de l’acheter pour elle-même, elle le désigne comme un cadeau et me le fait expédier. Parce que j’ai payé 9,52 $ au-dessus du prix d’Amazon, c’est un profit, qui AfarAwayGalaxy peut conserver (moins les frais Paypal et eBay). Ce vendeur a plus de 11 000 objets répertoriés sur eBay. Cela peut rapidement s’additionner à de l’argent réel.

Après avoir passé ma commande, je reçois un e-mail d’AFarAwayGalaxy : « Ceci est pour vous faire savoir que nous l’avons reçu, traité et envoyé à l’entrepôt pour expédition », indique la note. Bien sûr, cela laisse de côté quelques détails. L’« entrepôt » est en fait le centre de distribution d’Amazon, où Ruckel stocke ses tapis Ripple.

« C’est du génie ! » explique David Bell, professeur à la Wharton School de l’Université de Pennsylvanie, qui étudie le commerce électronique. Il n’avait jamais entendu parler de ce stratagème, mais il a éclaté de rire quand je l’ai expliqué.



La privatisation comme panacée pour la baisse de la richesse pétrolière?


Il est peu probable que la libéralisation économique par la privatisation réussisse dans les États du CCG sans libéralisation et réforme politiques simultanées.
L’effondrement des prix du pétrole depuis 2014 a présenté de sérieux défis économiques pour les pays du Conseil de coopération du Golfe (CCG), soulignant la nécessité de diversifier leurs économies loin du pétrole et de développer leurs secteurs privés. En réponse, les États du CCG ont élaboré des plans de réforme économique de grande envergure, au cœur desquels se trouvent, dans de nombreux cas, des options de privatisation des entreprises publiques (entreprises publiques).
L’attention des médias s’est concentrée en particulier sur la vente proposée de parties de Saudi Aramco, mais dans les États du CCG, l’intérêt pour la privatisation s’étend au-delà de l’énergie à d’autres domaines de l’industrie et des services.
La privatisation, pour les États du CCG, devrait créer des incitations plus efficaces; imposer une plus grande responsabilisation à la haute direction; réduire l’ingérence du gouvernement dans les opérations commerciales; et donner à la direction des objectifs commerciaux clairs sans entraves aux exigences de la politique sociale. Il vise également à réduire les contraintes financières pesant sur les entreprises qui étaient jusqu’à présent tributaires des recettes publiques.
Cependant, une grande partie de la discussion actuelle ne tient pas compte des enseignements tirés des expériences de privatisation ailleurs dans les années 80 et 90. La très grande littérature développée à cette époque soulève de sérieuses questions sur la capacité des programmes de désinvestissement à atteindre les objectifs désormais attendus du même processus dans le CCG.
L’analyse des arguments idéologiques en faveur de la privatisation – dérivée de la théorie économique de la politique, des théories du choix public et de l’analyse principal-agent – peut être utilisée pour expliquer pourquoi il est fort possible que les gouvernements des États du CCG ne parviennent pas à privatiser efficacement.
L’expérience antérieure montre que le simple changement des droits de propriété d’une entreprise – c’est-à-dire le passage de la propriété publique à la propriété privée – n’est pas en soi suffisant pour améliorer les performances. Cela nécessite d’autres conditions, notamment une concurrence accrue; des signaux améliorés qui obligent la gestion à être réactive, flexible et inventive; réduction de l’ingérence du gouvernement pour permettre à la direction de maximiser la valeur pour les actionnaires; et des marchés financiers efficaces et efficients pour imposer la discipline nécessaire aux gestionnaires.
Les conditions sociopolitiques qui caractérisent les pays du CCG – fondées sur les réseaux de favoritisme familial et d’autres élites, et lorsque les droits de propriété sont douteux, l’état de droit peut être discutable et les perspectives d’une réglementation indépendante des entreprises privatisées sont incertaines – ne sont pas propices pour permettre aux conditions nécessaires à la privatisation de réussir.
Il est peu probable que la libéralisation économique par la privatisation réussisse dans les États du CCG sans libéralisation et réforme politiques simultanées. Si la privatisation fournit simplement un ensemble de bénéfices exceptionnels à l’État tout en renforçant les réseaux de favoritisme traditionnels, cela risque d’aggraver les mêmes perceptions de corruption et d’impuissance qui ont déclenché les soulèvements arabes depuis le début de 2011.
La théorie et l’analyse contextuelle suggèrent donc que la privatisation ne sera pas la panacée que beaucoup pensent être pour les États du CCG. Un processus qui permet l’entrée du secteur privé et oblige ainsi une entreprise d’État (jusqu’alors en situation de monopole) à être compétitive et performante semble être une voie à suivre plus réaliste que la privatisation de gros.



La logique en question


Il y avait clairement une tradition médiévale selon laquelle le philosophe grec Parménide (Ve siècle avant notre ère) a créé le raisonnement en vivant sur un rocher en Égypte. L’histoire est une histoire pure à 100%, mais elle reflète le fait que Parménide a été le tout premier philosophe à utiliser un argument prolongé pour ses vues au lieu de simplement suggérer une vision de la réalité. Mais utiliser des arguments n’est pas la même chose que les étudier, et Parménide n’a jamais systématiquement formulé ni analysé les principes de l’argumentation à titre individuel. Certes, il n’y a absolument aucune preuve qu’il était même conscient des directives implicites d’inférence utilisées dans la présentation de sa doctrine. Peut-être que l’utilisation de l’argument par Parménide a été influencée par la pratique des mathématiques grecques antérieures chez les Pythagoriciens. Ainsi, il est vraiment significatif que Parménide ait connu un instructeur pythagoricien. Mais l’histoire du pythagoricisme de cette première période est entourée de mystère, ce qui est difficile à séparer des faits de la légende. Si Parménide ignorait les règles fondamentales sous-jacentes à ses disputes, il n’en va peut-être pas de même pour son disciple Zénon d’Élée (Ve siècle avant notre ère). Zeno était l’auteur de nombreux différends, connus collectivement sous le nom de « Paradoxes de Zeno », prétendant déduire des conséquences extrêmement dures du regard bas-parménide sur les problèmes et ainsi réfuter ce type de point de vue et finalement déterminer la place moniste de Parménide. La stratégie logique consistant à établir une réclamation d’assurance en affichant que son contraire entraîne des effets absurdes est appelée reductio advertising absurdum. La vérité que les disputes de Zeno étaient toutes de cette forme montre qu’il a reconnu et réfléchi autour du modèle de base. D’autres auteurs ont également contribué à un désir grec croissant d’inférence et de preuve. Les premiers rhéteurs et sophistes – par exemple, Gorgias, Hippias, Prodicus et Protagoras (tous au 5ème siècle avant notre ère) – ont développé l’art de défendre ou d’attaquer une thèse par voie de discussion. Ce problème pour vos méthodes d’argumentation a parfois simplement donné lieu à des démonstrations orales de capacités de débat, ce que Platon appelait « éristique ». Cependant, il est également vrai que les sophistes ont joué un rôle déterminant dans la présentation de l’argumentation vers la position principale qu’elle est arrivée uniquement à conserver dans la pensée grecque antique. Les sophistes avaient été, par exemple, parmi les premiers à exiger que les promesses morales soient justifiées par des facteurs. Certains enseignements spécifiques des sophistes et des rhéteurs sont importants pour votre histoire antérieure du raisonnement. Par exemple, Protagoras est connu pour avoir été le premier à différencier différents types de phrases : questions, solutions, prières et injonctions. Prodicus semble avoir soutenu que deux termes ne pouvaient pas signifier exactement le même facteur. À juste titre, il s’est beaucoup concentré sur la distinction et la définition très minutieuses des significations de synonymes évidents, tels que de nombreuses conditions morales. Socrate (vers 470-399 avant notre ère) aurait assisté aux conférences de Prodicus. Comme Prodicus, il cherchait les définitions des choses, surtout dans le domaine des valeurs et des principes. Ces enquêtes, menées par le biais de débats et d’arguments tels que décrits dans les écrits de Platon (428/427-348/347 avant notre ère), ont renforcé l’intérêt de la Grèce antique pour l’argumentation et ont souligné l’importance du traitement et de la rigueur dans l’utilisation du vocabulaire. Platon a continué le travail commencé par les sophistes et aussi par Socrate. Au sein du Sophiste, il distingue l’affirmation de la négation et fait la distinction importante entre les verbes et les marques (y compris chacun des noms et des adjectifs). Il a fait remarquer que la déclaration totale (logos) ne peut inclure ni une identité ni un verbe seul mais exige au moins un de chacun. Cette observation indique que l’analyse du vocabulaire expérimenté s’est développée pour commencer à enquêter sur les bâtiments internes des revendications, ainsi que sur les relations entre les déclarations en général et les autres. Cette nouvelle amélioration sera élevée au rang d’œuvre d’art par l’élève de Platon Aristote.