Plus de digital dans l’industrie du batiment

Selon la National Institution of Building Sciences, la faible adoption des technologies reste un problème vital pour l’efficacité et la résilience du secteur de la construction aux États-Unis.

C’est pourquoi la NIBS a lancé le programme national américain de gestion des informations sur les bâtiments, dans le but d’atteindre un niveau d’efficacité plus élevé grâce à la numérisation.

Johnny Fortune sera le fer de lance de ce programme. Fortune, un expert en technologie et en construction, est devenu membre de la NIBS en juin. Il occupait auparavant le poste de gestionnaire BIM pour Prime AE Group, un cabinet d’architecture et de technologie basé à Baltimore.

Construction Plunge s’entretient ici avec M. Fortune des normes BIM, des prix d’adoption et de l’évolution de la transformation électronique dans le secteur de la construction aux États-Unis.

Le climat économique et le marché de la construction aux États-Unis sont évidemment différents de ceux des autres pays. Nous n’avons pas une seule agence gouvernementale entièrement axée sur la construction, mais plutôt plusieurs agences liées aux bâtiments et aux infrastructures.

Un certain nombre d’agences exigent actuellement le BIM pour les travaux répondant à certains critères. Je connais surtout les agences fédérales qui exigent le BIM, et certaines le font depuis un certain temps déjà. Certains États, comme le Wisconsin et le Tennessee, ont exigé la BIM pour les projets publics répondant à certains critères. Diverses agences locales, comme la ville de New York, ont également créé des normes ou des directives BIM à utiliser dans le cadre de projets.

Nous avons besoin d’une norme ouverte et axée sur la pratique. Nous ne verrons peut-être pas de mandat BIM pour tous les projets du gouvernement fédéral, mais nous pouvons tout de même développer des normes et des processus de l’ère suivante qui fournissent à l’ensemble des agences du gouvernement fédéral, ainsi qu’aux propriétaires privés, un ensemble d’outils efficaces à utiliser dans le cadre des exigences de leurs projets, qui exploitent le potentiel de la BIM pour atteindre les résultats souhaités.

Le NIBS fournit une norme consensuelle de l’industrie pour la BIM dans le National BIM Standard, ou NBIMS. L’édition 3 est sortie il y a quelques années, et nous prévoyons de publier la version 4 au début de l’année prochaine.

En outre, le programme national BIM utilisera les spécifications actuelles et celles qui sont en cours d’élaboration, mais il élargira également les activités précédentes afin d’accélérer l’adoption par un plus grand nombre d’intervenants dans les projets de création et d’infrastructure.

L’adoption de la BIM a-t-elle augmenté récemment ?

J’ai l’impression que l’adoption a continué à s’améliorer régulièrement ici aux États-Unis. Je pense que le problème est que le niveau d’adoption varie considérablement.

Certaines entreprises et organisations ne font qu’adopter des aspects spécifiques de la BIM, en omettant d’autres facteurs. Par exemple, une entreprise de construction peut adopter pleinement l’ordonnancement en 4D, mais n’a peut-être pas encore adopté l’offre de données numériques de remise.

L’adoption peut être plus rapide grâce à l’amélioration des normes et des pratiques. La mission du programme national BIM des États-Unis est de transformer la gestion des informations sur le cycle de vie. Nous pensons que la voie logique vers l’amélioration de la réalisation des projets et des processus commence par le développement et l’avancement des spécifications de nouvelle génération. La question de savoir où en est actuellement l’adoption est une bonne question, que nous souhaitons mieux comprendre après une étude de marché supplémentaire.

La plupart des activités des NIBS contribuent à faire progresser le marché sur la base d’études. Dans le cadre de la stratégie de mise en œuvre du système BIM à l’échelle nationale aux États-Unis, Thibault Batiment Industriel nous considérons la recherche comme un élément clé pour indiquer la voie à suivre.

Outre les niveaux d’adoption parmi les concepteurs, les constructeurs et les propriétaires, nous avons l’intention d’étudier les taux et les niveaux d’adoption dans d’autres domaines importants de l’exécution des tâches, tels que les aspects juridiques, la couverture d’assurance, l’éducation et la formation. Cette recherche s’appuierait sur les recherches précédentes et aiderait à déterminer si les taux d’adoption prévus ont déjà été atteints ou s’il existe d’autres possibilités de progrès.

Que faut-il faire pour accélérer l’adoption ?

Je pense que l’industrie est prête pour tout remède aux normes BIM de nouvelle génération.

Pour accélérer la vitesse de promotion, nous devons faire appel à des sources supplémentaires. L’élaboration de normes exige souvent beaucoup de temps et d’énergie et de nombreuses normes consensuelles dépendent largement de bénévoles intéressés et de leur temps disponible. Des ressources supplémentaires sous forme de financement et d’équivalents temps plein désignés peuvent contribuer à accélérer l’amélioration.

Nous avons également chargé le National BIM Program américain d’utiliser des méthodologies souples pour franchir rapidement les étapes clés de l’élaboration des spécifications. De nombreux éléments nécessitent une adoption large et accélérée. Le programme cherche à inclure de manière holistique un large éventail de parties prenantes et à développer en collaboration des solutions ouvertes, alignées, fiables et axées sur la pratique. L’adoption à grande échelle dépend de ces valeurs primaires directrices ainsi que de la disponibilité des ressources nécessaires à l’exécution.

Du racisme dans la police ?

L’indignation suscitée par le profilage racial et le meurtre d’Afro-Américains par des policiers et des justiciers ces dernières années ont contribué à donner naissance au mouvement Black Lives Matter.
Mais les tensions entre la police et les communautés noires ne sont pas nouvelles.
Il existe de nombreux précédents aux manifestations de Ferguson, dans le Missouri, qui ont inauguré le mouvement Black Lives Matter. Ces manifestations ont éclaté en 2014 après qu’un policier a tiré sur Michael Brown, 18 ans, sans armes; l’officier n’a par la suite pas été inculpé
Les précédents comprennent les émeutes de Los Angeles qui ont éclaté après l’acquittement de 1992 des policiers pour avoir battu Rodney King Ces émeutes se sont produites près de trois décennies après les émeutes de Watts en 1965, qui ont commencé avec Marquette Frye, une Afro-américaine, arrêtée pour conduite avec facultés affaiblies et brutalisé par la police pour avoir résisté à une arrestation.
Je suis un chercheur en justice pénale qui se concentre souvent sur les questions de race, de classe et de criminalité. Grâce à mes recherches et à l’enseignement d’un cours sur la diversité dans la justice pénale, j’ai pu constater à quel point les racines du racisme dans la police américaine – plantées pour la première fois il y a des siècles – n’ont pas encore été complètement purgées.
Patrouilles d’esclaves
Il existe deux récits historiques sur les origines de l’application des lois américaines.
Les services de police dans les États détenant des esclaves du Sud avaient leurs racines dans les patrouilles d’esclaves, des escadrons composés de volontaires blancs habilités à utiliser des tactiques de vigilance pour appliquer les lois relatives à l’esclavage. Ils ont localisé et renvoyé des personnes réduites en esclavage qui s’étaient échappées, écrasé des soulèvements dirigés par des personnes réduites en esclavage et puni des travailleurs réduits en esclavage trouvés ou soupçonnés d’avoir violé les règles de plantation.
Les membres des patrouilles d’esclaves pouvaient pénétrer de force dans la maison de n’importe qui, quelle que soit leur race ou leur appartenance ethnique, en soupçonnant qu’ils abritaient des personnes qui avaient échappé à la servitude.
Les précurseurs les plus connus de l’application des lois modernes étaient les services de police municipaux centralisés qui ont commencé à se former au début du XIXe siècle, à partir de Boston et bientôt à New York, Albany, Chicago, Philadelphie et ailleurs.
Les premières forces de police étaient majoritairement blanches, de sexe masculin et davantage axées sur la réponse au désordre qu’à la criminalité.
Comme l’explique Gary Potter, criminologue à l’Université Eastern Kentucky, les officiers devaient contrôler une sous-classe dangereuse »qui comprenait des Afro-Américains, des immigrants et des pauvres. Au début du XXe siècle, il y avait peu de normes d’embauche ou de formation d’agents.
La corruption et la violence policières – en particulier contre les personnes vulnérables – étaient monnaie courante au début des années 1900. De plus, les quelques Afro-Américains qui ont rejoint les forces de police ont souvent été affectés dans des quartiers noirs et ont été victimes de discrimination au travail. À mon avis, ces facteurs – contrôle du désordre, manque de formation policière adéquate, manque d’officiers non blancs et origines de la patrouille d’esclaves – sont parmi les précurseurs de la brutalité policière moderne contre les Afro-Américains.
Lois Jim Crow
Les patrouilles d’esclaves ont officiellement été dissoutes après la fin de la guerre civile. Mais les personnes autrefois asservies ont vu peu de soulagement des politiques racistes du gouvernement alors qu’elles étaient rapidement soumises aux codes noirs.
Pour les trois prochaines années, ces nouvelles lois spécifiaient comment, quand et où les Afro-Américains pouvaient travailler et combien ils seraient payés. Ils ont également restreint le droit de vote des Noirs, dicté comment et où les Afro-Américains pouvaient voyager et limité où ils pouvaient vivre.
La ratification du 14e amendement en 1868 a rapidement rendu les codes noirs illégaux en accordant aux Noirs autrefois esclaves une protection égale des lois par le biais de la Constitution. Mais en deux décennies, les lois de Jim Crow visant à soumettre les Afro-Américains et à nier leurs droits civils ont été promulguées dans le sud et certains États du nord, remplaçant les codes noirs.
Pendant environ 80 ans, les lois de Jim Crow ont exigé des espaces publics séparés pour les Noirs et les Blancs, tels que les écoles, les bibliothèques, les fontaines à eau et les restaurants – et leur application faisait partie du travail de la police. Les Noirs qui ont enfreint les lois ou violé les normes sociales ont souvent subi des violences policières
Pendant ce temps, les autorités n’ont pas puni les auteurs lorsque les Afro-Américains ont été lynchés. Le système judiciaire n’a pas non plus tenu la police responsable pour son absence d’intervention lorsque des Noirs étaient assassinés par des foules.
Réverbérant aujourd’hui
Au cours des cinq dernières décennies, le gouvernement fédéral a interdit l’utilisation de réglementations racistes aux niveaux national et local. Pourtant, les personnes de couleur sont encore plus susceptibles d’être tuées par la police que les Blancs.
Le Washington Post suit le nombre d’Américains tués par la police par race, sexe et autres caractéristiques. La base de données du journal indique que 229 sur 992 de ceux qui sont morts de cette façon en 2018, 23% du total, étaient noirs, même si seulement 12% environ du pays est afro-américain.
Le racisme institutionnel des services de police il y a des décennies et des siècles importe toujours parce que la culture policière n’a pas autant changé qu’elle le pourrait. Pour de nombreux Afro-Américains, l’application des lois représente un héritage d’inégalités renforcées dans le système judiciaire et de résistance à l’avancement – même sous la pression du mouvement des droits civiques et de son héritage.
En outre, la police cible de manière disproportionnée les conducteurs noirs
Lorsqu’une équipe de recherche de l’Université de Stanford a analysé les données collectées entre 2011 et 2017 sur près de 100 millions d’arrêts de circulation pour rechercher des preuves de profilage racial systémique, elle a constaté que les conducteurs noirs étaient plus susceptibles d’être arrêtés et de faire fouiller leur voiture que les conducteurs blancs. Ils ont également constaté que le pourcentage de conducteurs noirs arrêtés par la police avait chuté après la tombée de la nuit lorsque le teint d’un conducteur était plus difficile à voir de l’extérieur du véhicule.
Cette disparité persistante dans les services de police est décevante en raison des progrès réalisés à d’autres égards.
La police comprend mieux que la brutalité, en particulier la force meurtrière, mène à la méfiance du public et que les forces de police se diversifient
De plus, les étudiants du collégial spécialisé en justice pénale qui envisagent de devenir de futurs officiers chargés de l’application des lois suivent désormais fréquemment la diversité en matière de justice pénale. »Ce programme relativement nouveau est conçu pour, entre autres, sensibiliser les futurs professionnels de la police à leurs propres préjugés et à ceux d’autres. À mon avis, ce que ces élèves apprennent dans ces classes les rendra plus à l’écoute des communautés qu’ils servent une fois qu’ils entrent sur le marché du travail.
En outre, des responsables de l’application des lois et des dirigeants sont formés pour reconnaître et minimiser leurs propres préjugés à New York et dans d’autres endroits où des personnes de couleur sont arrêtées de manière disproportionnée par les autorités et arrêtées.
Mais la persistance d’une police à caractère racial signifie qu’à moins que la police américaine ne compte ses racines racistes, elle est susceptible de répéter les erreurs du passé. Cela empêchera la police de protéger et de servir pleinement l’ensemble du public.

Apprendre à piloter en simulateur

J’ai réalisé à quel point les simulateurs de vol des compagnies aériennes sont importants pour le marché des transporteurs aériens. La nécessité des types de solutions que FSI fournit peut être attribuée à la réalité qu’environ 65% des accidents de transport aérien pourraient être liés à un problème humain. Les prestataires de services autosuffisants de formation initiale sont apparus comme une conséquence des éléments de coût à considérer en même temps; la formation sur sim était beaucoup moins coûteuse et, naturellement, beaucoup moins risquée que la pratique de l’avion seule. Le créateur du FSI, Albert Ueltschi, raconte comment une initiale de l’armée, en 1939, a appris à faire des rouleaux dans un avion à cockpit ouvert. Apparemment, dès que l’avion a roulé, le siège d’Ueltschi s’est détaché de l’avion, puis il a été incapable de mettre à disposition son parachute. Néanmoins, il a pu s’éloigner de l’accident. L’éducation au pilotage que son entreprise fournirait serait beaucoup moins risquée. Les simulateurs de vol permettraient aux élèves-pilotes d’appliquer des traitements tout aussi normaux et d’urgence moins que les circonstances opérées. FSI a fait l’acquisition d’un revêtement de sol de pelouse du secteur prometteur des transporteurs aériens dans les années 40 et 50. En 1942, Albert Ueltschi a choisi Pan United States Airlines, travaillant sur des «hydravions» qui ont volé depuis Eliminating Bay. Quatre ans plus tard, il a commencé à travailler comme aviateur individuel pour le créateur panaméricain Juan Trippe. À cette époque, les entreprises achetaient des avions de services militaires restants de la Seconde Guerre mondiale et les convertissaient pour leur propre usage privé. Beaucoup de pilotes d’avion, cependant, n’avaient aucune sorte d’éducation sur les avions qu’ils étaient simplement choisis pour piloter. Sentant le lancement de votre entreprise rentable spécialisée dans la formation au pilotage, Ueltschi a démarré Airline Flight Safety, Inc. en 1951. Initialement, Ueltschi était un fournisseur de services rigoureux, sélectionnant des pilotes au clair de lune par le biais des grandes compagnies aériennes commerciales pour exercer des pilotes voyageant par avion en avion individuel pour une entreprise. cadres. La formation était généralement dispensée sur l’avion des clients, ainsi que sur certains instructeurs d’instruments réservés auprès de United Airlines. Fuyant le terminal LaGuardia de Pan Am, certaines des premières clientes ont intégré Eastman Kodak, Burlington Industries, National Distillers, ainsi que d’autres entreprises qui avaient besoin de formation pour les pilotes de leurs flottes d’affaires, la partie la plus importante du trafic sur le site Web de vol à l’époque. Percevant qu’un besoin pourrait exister à l’avenir pour des prestataires d’instruction mis à jour, Ueltschi a hypothéqué sa maison pour des fonds. La société a été interrompue et a commencé, et, avec le futur incertain de l’entreprise, Tematis Ueltschi a maintenu son emploi chez Pan Am. Il prendrait son envol comme initiale individuelle de Trippe pendant 17 années. Employant ses revenus à la Pan Am pour les dépenses de subsistance, Ueltschi réinvestit chacun des revenus des FSF dans l’entreprise. Cette grande quantité de stratégie de réinvestissement a été importante pour maintenir l’entreprise rentable au cours de ses premières années et a finalement conduit à des revenus importants et à une forte croissance des ventes de produits. Néanmoins, Ueltschi avait besoin de gros risques pour obtenir l’entreprise au-dessus du sol. À titre d’exemple, il a mobilisé 69 750 $ en capital d’investissement de dépenses en persuadant quelques-uns de ses premiers clients de placer l’argent en paiement anticipé pour 5 ans de services professionnels d’éducation pour vos équipes des flottes de l’entreprise. Cela a donné à Ueltschi l’argent, moins le stress des dettes, pour acquérir son premier instructeur Weblink. L’instructeur de mise en forme du site Web Link, votre équipement de simulation de vol utilisé par l’armée dans les années 1930 et plus tard pour exercer des aviateurs tout au long de la Seconde Guerre mondiale, avait été un entraîneur de voyage à gestion mécanique conçu pour former des aviateurs ayant un courrier d’escargot à «voler aveugle» en utilisant un tableau de bord.

L’accès à l’enseignement professionnel

En réponse aux récents changements technologiques et à la détérioration des résultats des travailleurs non diplômés (Autor 2019), les gouvernements du monde entier s’intéressent de plus en plus à la question de savoir si différents types d’enseignement secondaire (professionnel ou général) pourraient jouer un rôle dans l’offre aux jeunes les compétences dont ils ont besoin pour réussir après l’obtention de leur diplôme (Commission européenne 2010, US Department of Education 2013, 2018). Contrairement à l’ensemble croissant de preuves sur l’impact de divers domaines d’études dans l’enseignement supérieur (Altonji et al. 2012, Hastings et al. 2013, Kirkeboen et al. 2016), il existe un manque de preuves causales convaincantes sur la impact des programmes d’études secondaires sur les résultats sur le marché du travail (Altonji et al. 2011, Hampf et Woessman 2017, Hanushek et al. 2011, 2017).
Comprendre les conséquences potentielles des programmes d’études secondaires est d’autant plus important que ce choix s’effectue avant l’enseignement supérieur et, pour de nombreuses personnes, constitue le niveau d’études le plus élevé avant l’entrée sur le marché du travail. En outre, la disponibilité de l’enseignement secondaire professionnel est l’une des plus grandes différences entre les systèmes éducatifs nationaux (graphique 1).
Une opinion commune suggère qu’il peut y avoir un compromis entre les avantages de l’enseignement professionnel à court terme et les effets négatifs ultérieurs (Krueger et Kumar 2004, Hampf et Woessman 2017, Hanushek et al. 2017). Selon cette littérature, l’enseignement professionnel peut fournir aux candidats des compétences spécifiques à la profession qui facilitent mieux la transition initiale de l’école au travail. En outre, l’enseignement professionnel peut offrir une alternative importante pour les jeunes qui risqueraient autrement d’abandonner l’enseignement secondaire.
D’un autre côté, on pense que l’enseignement général prépare mieux les candidats à poursuivre leurs études, améliorant ainsi les perspectives d’emploi plus tard dans la carrière. De plus, avec les changements technologiques et l’avenir du travail, les critiques craignent que les compétences professionnelles ne deviennent obsolètes à un rythme plus rapide que les compétences générales.
Ces compromis sont conformes aux tendances des résultats moyens dans les données finlandaises sur l’univers des élèves diplômés de l’enseignement obligatoire en Finlande au cours de la période 1996-2000 (graphique 2). En moyenne, les candidats admis en filière professionnelle bénéficient d’un premier avantage sur le marché du travail mais sont dépassés par leurs pairs de la filière générale 11-12 ans après leur admission (27-28 ans).
Dix-sept ans après l’entrée dans l’enseignement secondaire (33 ans), les candidats admis en filière professionnelle gagnent annuellement 4 000 € de moins que les candidats admis en filière générale et sont employés moins de mois par an. Bien sûr, ces différences moyennes peuvent être motivées par la sélection.
Surmonter la sélection en utilisant les seuils d’admission en Finlande
Pour examiner les rendements du marché du travail de l’enseignement professionnel par rapport à l’enseignement secondaire général, nous utilisons un plan de discontinuité de régression créé par le processus d’admission centralisé en Finlande (Silliman et Virtanen 2021). Dans cette configuration, nous nous concentrons sur les candidats à l’enseignement secondaire qui s’inscrivent à la fois dans les filières professionnelles et générales et dont le parcours est déterminé par le caractère aléatoire des seuils d’admission dans les écoles sursouscrites (figure 3).
Des travaux empiriques antérieurs visant à identifier l’effet causal de l’enseignement secondaire professionnel montrent que l’enseignement professionnel peut améliorer les résultats à court terme. Des articles récents exploitant le caractère aléatoire des admissions dans des écoles américaines sursouscrites du Massachusetts, du Connecticut et de la Caroline du Nord aux États-Unis suggèrent que l’enseignement professionnel peut améliorer l’obtention du diplôme à temps, mais peut avoir des effets mitigés sur l’inscription dans l’enseignement supérieur (Dougherty 2018, Hemelt et al. 2019 , Brunner et al. 2019).
De plus, les preuves d’un essai contrôlé randomisé ciblant les communautés défavorisées aux États-Unis suggèrent que l’augmentation de la composante professionnelle de l’enseignement secondaire augmente les revenus après l’obtention du diplôme (Kemple et Willner 2008).
Cependant, en comparant les résultats sur le marché du travail des diplômés des programmes professionnels et généraux dans les pays européens au cours de leur cycle de vie, les chercheurs affirment que les avantages de l’enseignement professionnel peuvent être de courte durée, l’avantage salarial annuel initial de l’enseignement professionnel disparaissant au début de l’année. la trentaine (Brunello et Rocco 2017, Hanushek et al. 2017, Hampf et Woessman 2017).
En revanche, une deuxième approche pour explorer les effets à plus long terme de l’enseignement secondaire professionnel s’est concentrée sur les réformes nationales et ne trouve aucun avantage à une exposition accrue à l’enseignement général. Une étude d’une réforme en Roumanie qui a fait passer une grande proportion d’élèves de la formation professionnelle à l’enseignement général suggère que les avantages de l’enseignement général sont largement dictés par la sélection (Malamud et Pop-Eleches 2010, 2011).
Des études aux Pays-Bas et en Suède qui examinent les réformes de l’enseignement professionnel qui ont augmenté le contenu général dans la filière professionnelle ne constatent aucun avantage d’un contenu général supplémentaire sur les résultats sur le marché du travail (Oosterbeek et Webbink 2007, Hall 2016). En Norvège, Bertrand et al. (2019) constatent qu’une réforme similaire a également augmenté la sélection dans la filière professionnelle et a ainsi conduit à une amélioration des revenus pour ceux qui sont incités à suivre une formation professionnelle.
Nos résultats pour la Finlande fournissent des estimations locales pour les individus les plus susceptibles d’être touchés par les changements de taille du secteur de l’enseignement professionnel. De plus, alors que d’autres recherches se sont principalement appuyées sur des réformes qui affectent les choix éducatifs de cohortes entières ou sur les différences transnationales dans les secteurs secondaires, la conception de la discontinuité de la régression permet une inférence plus nette en comparant les individus au sein de la même cohorte d’âge et travaillant sur le même marché du travail. . Comme l’ont observé Bertrand et al. (2019), les effets estimés à l’aide des réformes de l’enseignement professionnel peuvent être induits par des changements de composition liés au choix de filière entre les cohortes ainsi que par des changements dans le contenu de la filière professionnelle.
L’accès à la filière professionnelle peut augmenter les revenus sur le long terme
Les estimations causales de notre étude suggèrent que l’inscription dans l’enseignement secondaire professionnel augmente le revenu annuel initial – et cet avantage persiste jusqu’à l’âge de 33 ans (une augmentation de 6 % 17 ans plus tard), sans effet sur les mois d’emploi, pour les candidats à la marge d’admission à formation professionnelle versus formation générale (figures 4a et 4b).
Suggérant en outre que les rendements peuvent ne pas devenir négatifs à plus long terme encore, l’admission dans la filière professionnelle ne réduit pas la probabilité d’obtenir un diplôme de l’enseignement supérieur, et les diplômés ne sont plus susceptibles d’être employés dans des professions à risque d’automatisation ou de délocalisation .
Les résultats des calculs de la valeur d’actualisation actuelle du rendement à vie de l’enseignement professionnel selon plusieurs scénarios suggèrent qu’il est très peu probable que la prime professionnelle à vie devienne négative à la retraite. L’effet est accentué pour les candidats qui indiquent une préférence pour l’enseignement professionnel : pour eux, ne pas être admis dans la filière professionnelle réduit l’emploi 17 ans après l’admission de près de 20 %.
Les estimations du plan de discontinuité de la régression proviennent du milieu de la distribution des capacités scolaires. Cependant, les avantages peuvent être encore plus importants pour les personnes ayant de faibles GPA à l’école obligatoire qui s’appliquent uniquement à la filière professionnelle, tandis que l’enseignement professionnel peut être préjudiciable pour les personnes ayant des GPA élevés qui ne s’appliquent qu’à la filière générale.
Ces conclusions, tirées d’une période caractérisée par des changements technologiques rapides, fournissent de nouvelles preuves que l’enseignement professionnel peut offrir une voie importante vers le marché du travail. À première vue, ces résultats peuvent sembler aller à l’encontre de l’idée que les compétences générales équipent mieux les gens pour s’adapter au changement technologique (Goldin et Katz 2009, Acemoglu et Autor 2011, Goos et al. 2014, Deming 2017, Deming et Noray 2020) . Une lecture plus nuancée de cette littérature suggère cependant que la classification des compétences comme générales ou professionnelles peut ne pas saisir la nature de l’évolution de la demande de compétences : d’autres dimensions des compétences peuvent être plus importantes.
Par exemple, il semble y avoir une demande croissante pour les compétences manuelles et cognitives non routinières (Acemoglu et Autor 2011) ainsi que pour les personnes ayant des niveaux élevés de compétences sociales – indépendamment de leurs capacités académiques (Deming 2017, Barrera-Osorio et al. 2020a, 2020b). Ces résultats enrichissent cette littérature, suggérant que l’enseignement professionnel peut fournir des compétences précieuses – en particulier pour ceux qui sont peu susceptibles d’obtenir un diplôme de l’enseignement supérieur.
Enfin, ces résultats fournissent des enseignements importants pour les décideurs politiques qui envisagent le rôle de l’enseignement professionnel. Ils suggèrent une demande soutenue de compétences professionnelles, même en Finlande où près de la moitié de toutes les cohortes s’inscrivent dans la filière professionnelle. Dans cet esprit, il peut y avoir une marge importante pour élargir le choix de l’enseignement professionnel dans d’autres pays développés.

Magique: faire le Mont Rushmore en petit avion

Dernièrement, aviation j’ai eu beaucoup de chance quand j’ai volé ensemble Position Rushmore. Cette expérience en plein essor continue d’être remarquable et que je vous recommande fortement d’essayer si jamais vous en avez l’occasion. Va même voyager encore plus près de la maison. Mais sans aucun doute la façon dont c’était. Le concept de création d’une sculpture à couper le souffle dans les Black Hillsides a été conseillé en 1923 par l’historien de la condition To Dakota du Sud, Doane Robinson, qui a expérimenté la création envisagée de créer des ressemblances entre des personnalités américaines indigènes et des personnalités occidentales américaines vieillissantes sur une formation rock and roll à l’aiguille à Custer Zone de loisirs de l’État. Malgré cela, le sculpteur américain Gutzon Borglum, qui a été embauché pour concevoir et exécuter l’entreprise, a refusé ce site Web car le rock and roll y était clairement érodé et imprévisible et plutôt choisi à proximité de Position Rushmore avec sa paroi rocheuse en granit fiable . Borglum a également recommandé la façon dont un certain nombre de têtes à l’intérieur de la sculpture représentent les 150 premières années des États-Unis: Washington pour signifier la fondation du pays; Jefferson, son développement à travers le pays; Roosevelt, sa croissance au niveau national et en tant que potentiel international; et Lincoln, sa préservation face au défi de la guerre civile. . Cette expérience de voyage a été incroyable de voir cette structure. Les travaux en vue du mémorial ont commencé en octobre 1927, peu de temps après sa consécration par le président. Calvin Coolidge, et a continué, aussi bien pendant les 14 années suivantes. L’avancement a été distrait par des déficits de soutien occasionnels, des problèmes de conception et de style (la ressemblance de Jefferson, à l’origine dans la bonne zone de Washington, doit être refaite de l’autre côté), ainsi que la perte de la vie de Borglum en mars 1941, plusieurs mois avant la sculpture a été complété. Le fils de Borglum, Lincoln, a exigé la dernière concentration sur l’entreprise, qui a été réalisée en octobre 1941. Dans chaque, la tâche consistait en une demi-douzaine ainsi que cinquante pour cent de nombreuses années de véritable sculpture par d’innombrables travailleurs, qui utilisaient dynamite, marteaux-piqueurs, ciseaux et forets pour façonner l’assemblage massif de sculptures en pierre naturelle. L’approche de Borglum a consisté à faire exploser la plupart des roches et des rouleaux avec des explosifs, à forer de nombreux trous étalés de manière serrée, puis à fissurer le reste de la roche jusqu’à ce que la surface de travail soit lisse. Une grande partie des 450 000 tonnes de roches enlevées au cours du processus étaient encore laissées en tas sur la base du mémorial. Le gouvernement a payé une grande partie des dépenses de près de 1 million de dollars, le reste provenant en grande partie de contributions privées. L’esprit de Washington a été consacré en 1930, Jefferson en 1936, Lincoln en 1937 et Roosevelt en 1939. L’ensemble de sculptures de Mount Rushmore s’est rapidement développé pour devenir l’une des grandes images légendaires des États-Unis. Le mémorial est maintenant l’un des plus fréquentés par les composants du NPS et est probablement le principal lieu d’intérêt en Amérique. Au fil du temps, des éléments du système du site, par exemple la disponibilité et les installations et services pour les visiteurs du site Web, se trouvent être améliorés et améliorés pour s’adapter au millier de personnes ou plus qui s’y rendent chaque année. Entre ceux-ci se trouve la méthode des bannières (établie en 1976), un chemin en haut en direction de la montagne / colline qui est flanquée sur les deux aspects par des bannières dans les 56 revendications et zones du pays. Un autre remodelage clé, effectué en 1998, comprenait la terrasse Huge Perspective et son amphithéâtre, offrant des vues de votre monument à l’extrémité nord (flanc de la montagne) de l’avenue des bannières; le chemin présidentiel, qui donne les vues les plus proches de la sculpture; et aussi la galerie Lincoln Borglum, qui comprend des expositions dans le dossier du mémorial. Le studio d’enregistrement du sculpteur (1939) montre les ressources utilisées dans la sculpture ainsi que la version de niveau habituée à créer la sculpture. Voyager peut être une expérience pratique unique. Utilisez ce vol si vous le pouvez.

Le problème de la liquidation financière

Je vais devoir lire cet article attentivement plusieurs fois pour pouvoir faire un bref résumé de haut niveau, mais cela confirme l’un de mes je sais que c’est vrai mais je ne peux pas le prouver », théories. Dans ce cas, c’est que la Fed qui a décidé d’utiliser les intérêts sur les réserves comme voie de gestion des taux d’intérêt était profondément défectueuse mais fonctionnait assez bien lorsque le système était inondé de liquidités. Le repo mess est le résultat du fait que la Fed s’appuie toujours sur un mécanisme qui n’est pas adapté à l’usage.
Répétez après moi: combien de tuyaux les plombiers de la Fed devraient-ils poser si les plombiers de la Fed aiment poser des tuyaux?
Les marchés monétaires à court terme font rarement la une des journaux. Mais depuis la mi-septembre, l’une des composantes les plus importantes du marché monétaire – le soi-disant marché repo »dans lequel les commerçants s’empruntent en utilisant des titres en garantie – est dans une tourmente presque constante. À un moment donné, le marché a menacé de se tarir, les emprunteurs payant des taux pouvant atteindre 10% par an.
La question à laquelle ce document cherche à répondre est la suivante: pourquoi les banques américaines ne liquident-elles pas temporairement tout ou partie de leurs réserves excédentaires à la Réserve fédérale alors que le taux repo dépasse de loin le taux qu’elles reçoivent pour les conserver. La théorie de la tarification des actifs nous dit que la réponse doit résider dans un mélange de trois idées: (1) la manière dont le taux d’intérêt sans risque sur les réserves excédentaires (IOER) est fixé, (2) la mesure dans laquelle les contreparties – le les dépositaires marginaux – pourraient connaître une détérioration de leur risque de défaut autonome et de la qualité des garanties qu’ils offrent, et (3) le prix que le marché fixe pour supporter ces risques.
À chaque échéance, la théorie économique élémentaire interprète le taux d’intérêt sur les prêts garantis comme la somme d’un taux sans risque et d’une prime payée pour accepter à la fois un retard dans la recouvrabilité et les risques particuliers posés par les emprunteurs et les garanties qu’ils offrent.
Cet article se concentre sur le taux d’intérêt de la Fed sur les réserves excédentaires et sur la manière dont ce taux et les objectifs supérieurs et inférieurs de la Fed pour le taux des fonds fédéraux déforment la structure à terme des taux sans risque. Le point clé est que l’échéance des réserves excédentaires est ce que veut une banque. Le paiement du même taux pour les soldes de réserves excédentaires, quelle que soit l’échéance prévue de la banque de contrepartie, est contraire à l’idée selon laquelle la structure des modalités des taux sans risque devrait dépendre en partie des anticipations de l’évolution économique future. La prévision de ces évolutions ne peut se faire avec précision dans ce monde très incertain. La définition d’un IOER unique, quelle que soit sa maturité, fausse la courbe des taux de risque en ce sens qu’elle est susceptible de subventionner l’évitement du risque dans la plupart des horizons. En un mot, la valeur de l’option de laisser monter les soldes de réserves excédentaires doit être établie de manière explicite.
Plomberie Liquidité financière
La liquidité est un terme tridimensionnel. Un marché de courtiers est dit liquide lorsque l’on peut soit établir, soit liquider »une position substantielle rapidement, à peu de frais et sans avoir beaucoup d’impact sur le prix de l’actif échangé. En ciblant la stabilité financière, les responsables de la Réserve fédérale se préoccupent directement de deux types de liquidités: la liquidité des portefeuilles bancaires et la liquidité des marchés des fonds au jour le jour.
Puisqu’ils caractérisent leurs efforts de stabilisation comme fournissant des liquidités », il est naturel de penser que les responsables de la Fed exploitent une installation combinée de traitement des eaux douces et des eaux usées. Ses réservoirs, pompes et tuyaux contribuent à la circulation de liquidités explicites et à des subventions implicites difficiles à observer. Les deux produits sont acheminés par le biais de banques et de courtiers en valeurs mobilières sélectionnés. La surveillance de l’équité et de l’efficacité avec lesquelles les banques et les concessionnaires directement connectés de la Fed vendent ces produits aux entreprises et aux ménages en aval représentent une troisième ligne de produits mal comprise.
Au cours des dernières semaines, des sabots se sont développés sur deux marchés étroitement liés pour les fonds au jour le jour. Sur l’un de ces marchés, la Fed accorde des prêts garantis directement aux entreprises éligibles. Parce que le titre de la garantie change temporairement de mains, ces prêts sont appelés accords de mise en pension ou repos. » L’autre marché négocie des titres pour réserver les soldes détenus à la Fed. Parce que les soldes échangés ne quittent jamais les livres de la Fed, les créances négociables sur les soldes sont appelées fonds fédéraux (ou fédéraux). »
Parce que la Fed évalue généralement favorablement ses produits délicatement plombés, c’est un privilège pour une entreprise financière privée d’être autorisée à connecter tout ou partie de ses tuyaux et pompes de vente au détail directement à la Fed. Eisenbeis (2018) indique que les contreparties les plus importantes de la Fed sont les fonds du marché monétaire (qui ne participent qu’à la partie des accords de rachat du réseau) et 23 sociétés de titres qu’elle désigne comme courtiers principaux. »
Les courtiers primaires sont connectés non seulement au réseau des pensions, mais ils participent également aux opérations quotidiennes de la Fed sur le marché libre et aux enchères de titres que la Fed administre pour le compte du Trésor. Plus de la moitié des concessionnaires désignés sont des filiales d’institutions étrangères. La possibilité de commercer directement avec la Fed confère à ces entreprises un pouvoir de tarification limité et un devoir correspondant d’aider la Fed à éviter et à éliminer les blocages »dans leurs systèmes de distribution en aval.
Ma métaphore du réseau que la Fed a construit pour distribuer des liquidités permanentes et au jour le jour soulève au moins trois problèmes concernant la scène bancaire post-crise. Premièrement, pourquoi les garanties conditionnelles de filet de sécurité et les intérêts sur les réserves excédentaires sont-ils toujours subventionnés et les banquiers aisés, en particulier ceux domiciliés en Europe, ne devraient-ils pas se sentir moralement inquiets d’extraire des subventions des contribuables américains à faible revenu? Deuxièmement, pourquoi les frais de la Fed pour la liquidité au jour le jour ne sont-ils pas caractérisés comme des frais délibérément sous-payés payés pour une éclaboussure temporaire de liquidités plutôt que d’être encadrés de manière moins transparente comme s’il s’agissait de paiements d’intérêts sur un prêt garanti? Troisièmement, les responsables de la Fed devraient-ils se sentir obligés de redéfinir son réseau de subventions pour minimiser la volatilité quotidienne des éléments explicites et implicites du taux des fonds fédéraux?
Gérer la liquidité des réservoirs fédéraux: payer un intérêt explicite sur les réserves excédentaires
Chaque fois que la Fed libère de la liquidité de ses réservoirs, elle transite par les comptes de réserve des banques commerciales en tant que réserves excédentaires. La figure 1 montre qu’au cours des 25 années qui ont précédé la GFC, les banques n’ont pas laissé les réserves excédentaires rester très longtemps dans leur bilan. En effet, le rendement explicite de ces actifs était nul et, dans la plupart des cas, leur rendement implicite était également faible. Ce minuscule rendement a amené les décideurs politiques à s’attendre à ce que les banquiers affectent plus ou moins rapidement les entrées de réserves aux nouveaux prêts et investissements.
Les économistes ont utilisé cette attente d’une recirculation rapide des banques pour construire un modèle dynamique simplifié du processus de création monétaire. Dans ce modèle, le pompage d’un montant donné de réserves dans (ou hors) des mains des banquiers maximisant le profit déplace l’offre de fonds prêtables vers la droite (gauche). Plus la demande de ces fonds est élastique, plus la variation d’équilibre de la masse monétaire est importante. Tout le monde convient que l’utilité de cette théorie est tombée en panne pendant la Grande Dépression.
Mais il n’est pas facile de répartir la responsabilité de cette répartition entre la réticence des clients à emprunter et la réticence des banquiers à prêter. Il est également difficile d’amener les professionnels de tout domaine à abandonner une théorie établie. Alors que la Grande Dépression devenait un souvenir de plus en plus lointain, les économistes trouvaient de plus en plus facile de se convaincre que le problème des années 30 résidait non seulement dans une chute drastique de la demande de fonds prêtables, mais dans la manière timide fournie par les responsables de la Fed. nouvelles réserves. En dehors de la Fed, la théorie du multiplicateur monétaire a été sauvée du tas de ferraille en ajoutant l’hypothèse que, lorsque l’économie est en crise, les banquiers centraux doivent avoir le courage de porter le niveau des réserves excédentaires à de grands sommets. Pour être efficaces, ces nouveaux niveaux doivent être suffisamment élevés pour inciter les banques insolvables et presque insolvables à consentir des prêts à des taux de rendement historiquement bas dans un environnement extrêmement incertain.
Il semble clair que les gestionnaires des institutions zombies trouvent utile de montrer un montant excessif de réserves excédentaires dans leurs bilans. Chaque fois que les opportunités de bénéfices et la valeur des actifs d’une banque chutent, les réserves excédentaires gagnent en valeur de deux manières. Ils réduisent la probabilité à court terme de devoir faire face à un examen bancaire ou à une fuite destructrice des clients.
Pendant la crise, aider les banques en difficulté à accumuler des liquidités est devenu un objectif majeur de la Fed. La Fed a fait un usage agressif de son guichet d’escompte et de son pouvoir de prêt d’urgence pour injecter des liquidités directement dans les banques dont les bilans étaient à sec. L’explosion de programmes de prêts de la Fed nommés de façon créative pour les institutions en difficulté soutient l’hypothèse selon laquelle l’établissement d’un environnement riche en réserves est devenu temporairement un objectif intermédiaire de gestion de crise.
Les nouveaux prêts accordés dans cet environnement pourraient en fait réduire le taux de rendement déclaré d’une banque sur sa combinaison particulière de nouveaux actifs à un prix raisonnable et surdimensionnés d’anciens actifs délibérément surévalués. Pour gagner du temps pour divers paris de fin de partie pour que la résurrection se joue, les banquiers zombies doivent mettre en place des chiffres qui donnent faussement l’impression qu’ils pourraient résister à une course ou à un examen rigoureux des banques fédérales.
Au sein de la Fed, l’expansion des réserves excédentaires a été conçue en termes d’objectifs de taux d’intérêt, de prix des titres et de flux de nouveaux prêts hypothécaires. Néanmoins, la figure 1 montre que, pendant la Grande crise financière, la Fed moderne a semblé confirmer l’hypothèse de réticence des prêteurs en injectant à sa consternation près de trois billions de dollars de réserves excédentaires. Au cours de cette expérience, des mesures contraires prises pour améliorer les rendements explicites des réserves excédentaires et réaffecter les ressources de surveillance ont brouillé les résultats de l’exercice. L’intensification du nombre d’examens bancaires effectués chaque semaine et la découverte et la fermeture de banques insolvables au rythme de 3 par semaine (figure 2) ont rendu les réserves excédentaires plus précieuses que jamais. Comme dans les années trente, les banques faibles et insolvables (dont les priorités étaient d’éviter et de survivre aux examens bancaires et aux ruptures de clientèle) ont pris leur temps pour mettre en jeu les réserves excédentaires.
Intérêt explicite sur les réserves excédentaires
Peu de temps après l’échec de Lehman en 2008, la Fed a demandé et obtenu la permission du Congrès d’accélérer la date de sa capacité précédemment autorisée à payer des intérêts explicites sur les réserves bancaires. Wall (2015) caractérise la demande de la Fed dans le cadre d’un plan destiné à fixer un plancher sur les taux d’intérêt qui préparerait les traders des fonds fédéraux à un retour à un environnement de réserves rares et au système d’échange de ces réserves qui l’accompagnait.
Lorsque le revenu, l’emploi et la demande de crédit ont finalement commencé à reprendre de la vigueur, la métaphore de la distribution de liquidité de la Fed a recadré l’accumulation des réserves excédentaires induite par la crise – à l’avenir – comme un réservoir de liquidité bancaire surchargé. Cette façon de penser a conduit les responsables de la Fed à s’inquiéter excessivement des conséquences inflationnistes d’un éventuel afflux de liquidités alors que le retour des banques à la solvabilité a détruit leur besoin de conserver les réserves excédentaires comme dispositif de filtrage.
Pour ralentir la libération de liquidités des comptes de réserve au cours de la période post-crise, les politiques de la Fed ont encouragé les banques – de manière explicite et implicite – à libérer les soldes de réserves excédentaires avec prudence. Compte tenu de: (1) l’héritage des banques en matière de pertes non comptabilisées, (2) le taux élevé de fermetures de banques en cours, et (3) la lente reprise de la demande des clients pour le financement bancaire, il est douteux que tant d’encouragement aient été nécessaires. Mais la crainte d’être blâmé pour avoir initié un nouveau cycle d’inflation élevée et le souci de la survie des banques presque solvables dans le système ont fait paraître raisonnable pour les responsables de la Fed de renforcer le rôle des intérêts explicites sur les réserves.
Dès les premiers jours de la Fed, les coûts et les avantages d’exiger des banques qu’elles détiennent des réserves étaient un point de discorde entre la Fed et les banques. Pendant de nombreuses années, la Fed a allégé le fardeau des réserves obligatoires en offrant à ses banques membres une série de services de compensation, de règlement, de change et de conservation qui n’étaient pas entièrement tarifés. Il est utile d’interpréter ce système de tarification comme une forme d’intérêt implicite sur le solde des réserves des membres.
Dans les années 80, la pression exercée par les grandes banques qui faisaient concurrence à la Fed sur le marché des services interbancaires a persuadé le Congrès d’adopter une législation qui restreignait de plus en plus la capacité de la Fed à sous-évaluer ses services (voir Kane, 1982). Pour limiter les possibilités pour les banques d’échapper aux réserves obligatoires en abandonnant leur adhésion à la Fed, le Congrès a tenté d’équilibrer le marché en étendant la portée des exigences de la Réserve fédérale aux banques non membres. Mais d’autres types d’arbitrage réglementaire ont continué de saper l’efficacité de ces exigences.
C’est ainsi que les responsables de la Fed en sont venus à chercher de nouvelles façons d’influencer les réserves agrégées et, éventuellement, à soutenir l’idée de payer des intérêts explicites sur les réserves détenues à la Fed. Au milieu de la crise bancaire fin 2008, la Fed a été autorisée à payer des intérêts explicites comme mesure d’urgence. Pour faire du taux de ces soldes un outil de gestion de crise plus puissant, les dirigeants de la Fed ont décidé de cumuler des intérêts sur les soldes de réserves requis et excédentaires. Le paiement aux banques d’intérêts explicites sur les soldes détenus au-delà du montant requis par la loi équivaut à créer pour les banques uniquement un bon du Trésor dont l’échéance est au choix du détenteur. Variation du niveau du taux que les banques reçoivent sur ces réserves excédentaires le taux de réserve excédentaire »ou (dans Fedspeak) l’IOER est devenu – en même temps que les taux proposés par la Fed sur les accords de rachat – un instrument de premier plan dans l’outil de la Fed cabinet.
Au début de la crise, le taux des fonds fédéraux a chuté à un niveau presque nul, de sorte que le rendement plus élevé offert sur les réserves excédentaires a commencé à pomper un flux de plus en plus important de subventions pour les banques qui ont choisi de ne pas déverser leurs réserves sur le marché. Le recul de la circulation des réserves qui en a résulté a convaincu les responsables de la Fed de revitaliser l’instrument des opérations d’open market. Ils ont baptisé les transactions à sens unique que la lutte contre la Grande Crise financière impliquait d’abord comme des achats d’actifs à grande échelle », mais les journalistes et les commerçants ont renommé le programme de manière plus colorée en Quantitative Easing. L’assouplissement quantitatif (qui est devenu QE dans Fedspeak) a poussé les décideurs politiques dans un schéma qui ressemble à une version inversée du schéma de ciblage de Paul Volcker de 1979. Alimenter les pompes pour les achats importants sur le marché ouvert impliquait: (1) de permettre aux titres adossés à des créances hypothécaires émis par Fannie et Freddie d’entrer dans la gamme de titres achetés dans les opérations d’open market de la Fed et (2) d’élargir ce qui avait commencé comme une portefeuille de titres de plus de 3,5 milliards de dollars.
La principale méthode utilisée par les responsables de la Fed pour rétablir la solvabilité des banques était de subventionner le rendement qui pourrait être réalisé sur les réserves excédentaires, bien que les responsables de la Fed nient que telle était leur intention. L’idée de payer des intérêts sur les réserves requises au niveau de leurs coûts d’opportunité a un pedigree intellectuel distingué et un objectif politique légitime (Wall, 2017). Mais leur recherche de nouveaux contrôles en pleine crise a conduit les dirigeants de la Fed à dépasser la restriction du coût d’opportunité. Étant donné que l’IOER est destiné à être uniquement accessible aux banques assurées par la FDIC, les responsables de la Fed se sont sentis libres de permettre au taux des fonds fédéraux d’équilibre du marché de se situer en dessous du rendement des réserves excédentaires (parfois pendant des jours). Cette politique a transformé le taux payé sur les réserves excédentaires en un instrument subventionné 1 et intrinsèquement discriminatoire.
L’un des principaux thèmes de ma recherche a été de montrer que les instruments politiques discriminatoires génèrent des formes créatives de contournement qui finissent par détruire l’effet discriminatoire de la politique. Il en va de même avec l’IOER. Pour permettre aux grandes institutions non bancaires et aux investisseurs domestiques accrédités (c’est-à-dire riches) 2 de gagner le taux de réserve excédentaire (moins des frais minimes), plusieurs anciens employés de la Fed ont affrété une banque étroite et non assurée controversée 3 (TNB USA Inc.) dans le Connecticut . Une banque étroite est celle qui ne prend aucun risque. La valeur sociale d’une telle banque était à l’origine conçue comme un moyen hypothétique d’éliminer le besoin d’un filet de sécurité gouvernemental. Mais jusqu’à ce qu’un retour explicite sur les réserves excédentaires apparaisse, aucun risque ne signifiait aucun profit car les banques étroites ne pouvaient jamais gagner suffisamment sur des actifs sûrs pour être viables. La Fed a jusqu’à présent refusé de donner à TNB un compte de réserve (je suppose) au motif: (1) que TNB n’est pas et ne peut pas devenir une banque assurée parce que sa charte ne lui permet pas d’accepter les dépôts de détail 4 et (2) qui Le seul but de TNB pour l’existence est de contourner une règle particulière de la Fed. Comme dans d’autres cas d’arbitrage réglementaire flagrant, la légalité de ce régime sera finalement tranchée par les tribunaux.
Il ne faut pas beaucoup d’imagination pour voir que, si les parties non bancaires sont disposées à payer des frais à TNB pour obtenir une partie du rendement offert sur les réserves excédentaires, le retour sur les réserves excédentaires est en décalage avec les autres taux à court terme. La meilleure justification pour subventionner les rendements des réserves excédentaires est d’empêcher une monétisation rapide des réserves excédentaires. Mais le niveau de subvention génère lui-même une activité d’arbitrage qui transforme d’autres types de financement à court terme en réserves excédentaires à taux plus élevé. Les autorités doivent comprendre que l’arbitrage réglementaire créatif ne s’arrêtera pas avec TNB. Des accords innovants continueront à arriver jusqu’à ce que la subvention versée par l’IOER soit effectivement éliminée.
La racine du problème est que les responsables de la Fed tentent simultanément de dénouer le QE et d’aligner quatre taux et frais explicites étroitement liés: son taux d’actualisation, le couloir des taux cibles supérieurs et inférieurs qu’il fixe pour les fonds fédéraux et le retour sur les rendements excédentaires . Les taux cibles administrés évoluent de temps en temps, mais les taux du marché sur des actifs et passifs similaires évoluent continuellement. À mesure que les taux du marché fluctuent, certains taux cibles administrés par la Fed deviennent trop élevés et d’autres deviennent trop bas. Aux États-Unis et à l’étranger, il incombe aux ingénieurs financiers avisés de parcourir cette vague d’opportunités étroitement liées pour obtenir de beaux rendements minute par minute sur les soldes à court terme. De tels arbitragistes créatifs recherchent régulièrement des différences mineures dans les taux d’intérêt explicites et implicites sur divers instruments pour générer des bénéfices sur les métiers gratifiants de leur conception.

Comment démarrer une entreprise en ligne

Qu’il s’agisse de gérer une boutique en ligne uniquement ou d’ajouter des achats en ligne à une entreprise physique établie, les ventes en ligne sont nécessaires. Ceux qui ne trouvent pas le moyen de vendre leurs biens via internet verront rapidement leurs clients prendre leur argent ailleurs.
Les acheteurs citent de nombreuses raisons pour leurs préférences d’achat en ligne, notamment le fait que cela leur fait gagner du temps, facilite la comparaison des prix, ne nécessite pas de se battre dans des magasins bondés et offre une plus grande variété d’articles à acheter.
Les entreprises ont deux options principales pour vendre des biens en ligne : gérer leurs propres sites Web de commerce électronique ou vendre leurs biens sur un marché en ligne établi. Pour gérer leurs propres sites de commerce électronique, les entreprises ont besoin de plusieurs services et logiciels essentiels. Parmi les plus importants figurent un service d’hébergement Web, un logiciel de panier d’achat et un processeur de carte de crédit.
Les petites entreprises peuvent emprunter la voie la plus simple en créant un magasin sur l’un des nombreux marchés en ligne, tels qu’Amazon, eBay ou Etsy.

Avantages du commerce électronique
La vente de biens et de services en ligne présente de nombreux avantages. Plus important encore, cela ouvre les entreprises à une clientèle beaucoup plus large que celle à laquelle elles peuvent accéder avec un seul emplacement physique. Avec un site de commerce électronique, les entreprises ne se limitent pas à vendre leurs marchandises à ceux qui se trouvent dans et autour de leurs communautés locales. Les acheteurs du monde entier peuvent accéder aux sites, ce qui augmente considérablement le potentiel de profit.
Autre avantage, les entreprises de commerce électronique restent toujours ouvertes. Alors que la plupart des sites physiques peuvent fonctionner de huit à 10 heures par jour, les entreprises de commerce électronique fonctionnent 24 heures sur 24. Être capable de faire des ventes et de l’argent à toute heure de la journée est un gros avantage.
Gérer une entreprise en ligne peut également réduire les coûts. Plus précisément, les entreprises en ligne uniquement n’ont pas à payer de loyer sur un emplacement physique et n’ont pas à payer d’employés. Puisqu’elles ne nécessitent pas la même quantité de main-d’œuvre pour fonctionner, ces entreprises bénéficient d’énormes économies de coûts. Lire l’article connexe : Comment démarrer une entreprise : étape par étape
Les coûts d’inventaire baissent également pour les magasins en ligne. Les entreprises de commerce électronique ne sont pas confrontées aux mêmes exigences que les entreprises physiques, qui doivent rester entièrement approvisionnées à tout moment. Les magasins en ligne, en revanche, peuvent maintenir des stocks bas en utilisant des méthodes de livraison directe, dans lesquelles les produits sont expédiés aux consommateurs directement depuis le fabricant.

Inconvénients du commerce électronique
Le commerce électronique présente également certains inconvénients. Les magasins en ligne perdent souvent la possibilité d’interagir avec leurs clients en personne. Les entreprises physiques peuvent développer leur clientèle en créant des relations personnelles avec les acheteurs. La seule façon pour les boutiques en ligne de le faire est d’utiliser des moyens d’assistance impersonnels tels que l’e-mail ou le chat en direct.
Les entreprises de commerce électronique sont également confrontées à une concurrence féroce. Pour chaque entreprise en ligne, au moins 10 autres entreprises sur le Web vendent la même chose. Des centaines de milliers de sites de commerce électronique opèrent dans le monde entier, ce qui signifie que les entreprises en ligne doivent travailler encore plus dur que les entreprises physiques pour se démarquer de la foule.
Enfin, les entreprises de commerce électronique doivent faire face à des problèmes techniques auxquels les sites physiques ne sont jamais confrontés. Les entreprises de commerce électronique fonctionnent entièrement en ligne, donc si quelque chose ne va pas avec le site Web, le processeur de carte de crédit ou tout autre aspect de l’opération, l’entreprise doit fermer pour être réparée. Alors que certains de ces problèmes peuvent échapper au propriétaire de l’entreprise, ils ont le même résultat : perte d’argent et perte de clients.

Ce dont a besoin une entreprise de commerce électronique
Bien qu’ouvrir une entreprise de commerce électronique puisse être relativement facile, vous avez besoin d’un certain nombre de choses pour commencer. Voici un aperçu de tout ce qu’un entrepreneur doit avoir pour ouvrir une entreprise de commerce électronique
Produit à vendre : Plus important encore, les propriétaires de petites entreprises ont besoin de quelque chose qu’ils peuvent vendre. La bonne nouvelle est qu’avec Internet, cela peut être pratiquement n’importe quoi. Grand ou petit, cher ou bon marché, tout article peut être vendu en ligne. De plus, comme l’entreprise est gérée en ligne, les propriétaires de commerce électronique ont la possibilité de vendre des biens numériques qui peuvent être téléchargés sur l’ordinateur ou l’appareil mobile d’un client.
Nom de domaine : avant qu’une petite entreprise puisse commencer à créer un site Web de commerce électronique, elle a besoin d’un nom de domaine. Il s’agit de l’adresse en ligne à laquelle les acheteurs peuvent trouver le site Web de l’entreprise. La plupart des noms de domaine d’entreprise en ligne se terminent par « .com » ou « .net ». Le nom de domaine doit correspondre le plus possible au nom de l’entreprise.
Service d’hébergement Web : vous aurez besoin d’un service d’hébergement Web pour publier le site Web en ligne afin que les acheteurs puissent le voir. Ces services stockent les fichiers de données qui composent les sites Web, puis téléchargent ces fichiers sur le Web pour qu’ils soient visualisés par ceux qui visitent le site via son nom de domaine officiel.
Site Web : Le site Web sert de maison en ligne à une entreprise. Le site, qui peut être créé à l’aide de services d’hébergement Web ou d’un logiciel de commerce électronique, doit présenter les produits que l’entreprise souhaite vendre et offrir un moyen de vendre ces articles directement aux consommateurs. La conception du site Web devrait encourager les acheteurs à rester et à faire des achats.
Mobile : Tout aussi importante que votre site Web, une présence sur les appareils mobiles est plus cruciale que jamais, car de plus en plus de personnes achètent directement depuis leur smartphone. Votre site Web doit être optimisé pour les mobiles, ce qui signifie qu’il change dynamiquement de taille et de mise en page pour faciliter la navigation sur des écrans plus petits. Vous pouvez également créer une application spéciale que les clients peuvent télécharger. Lire l’article connexe : Créer un site Web : un guide pour les petites entreprises
Logiciel de panier d’achat : Pour vendre des articles d’un site Web de commerce électronique à des clients, vous avez besoin d’un logiciel de panier d’achat. Ces programmes donnent aux acheteurs la possibilité de rechercher dans l’inventaire de l’entreprise pour voir ce qui est disponible, sélectionner les articles qu’ils souhaitent acheter et éventuellement les acheter. En plus d’aider aux transactions, de nombreuses options logicielles de panier d’achat incluent des fonctionnalités permettant de contrôler l’inventaire, de configurer l’expédition et de calculer les taxes.
Fournisseur de services aux marchands : étant donné que les entreprises en ligne ne peuvent pas accepter les paiements en espèces via le site Web, elles ont besoin d’un fournisseur de services aux marchands pour gérer leurs besoins en cartes de crédit et de débit. Ce service agit comme un lien entre l’entreprise, le client et la compagnie de carte de crédit. Il traite les paiements et prélève l’argent d’un compte de carte de crédit et le place sur le compte de l’entreprise, également appelé compte marchand. La plupart des fournisseurs de services marchands proposent ce type de compte bancaire, qui sert de lieu de stockage pour les paiements par carte de débit et de crédit collectés par une entreprise de commerce électronique. Une fois les fonds approuvés, le fournisseur de services marchands transfère l’argent, moins une commission, sur le compte bancaire du propriétaire de l’entreprise. Sans fournisseur de services marchands, une petite entreprise n’a aucun moyen de percevoir l’argent des clients.
Marketing : toutes les entreprises de commerce électronique qui réussissent ont une stratégie pour attirer les clients sur leurs sites. Sans un plan bien pensé, réaliser un profit devient beaucoup plus difficile. Les diverses options de marketing dont disposent les entreprises en ligne incluent (SEO), la publicité au paiement par clic et les campagnes par e-mail et sur les réseaux sociaux. Votre site Web doit contenir des liens vers les pages de médias sociaux de l’entreprise et proposer des moyens de s’abonner à des newsletters électroniques et à des offres comme stratégies pour fidéliser les clients.

Logiciel de commerce électronique
Bien que les propriétaires d’entreprise en ligne aient besoin de plusieurs choses pour être opérationnels, il existe des solutions tout-en-un pour vous aider. Un logiciel de commerce électronique simplifie le processus d’ouverture d’une boutique en ligne en guidant les propriétaires à chaque étape du processus, y compris l’enregistrement d’un nom de domaine, la conception d’un site Web, le téléchargement et la gestion de l’inventaire, la connexion à un panier d’achat et la fourniture d’options de paiement sécurisées pour les acheteurs. .
Lors du choix d’un logiciel de commerce électronique, Lille Digitale les propriétaires de petites entreprises doivent tenir compte de plusieurs facteurs. Le logiciel doit intégrer tous les aspects de la création et de la maintenance d’un site Web de commerce électronique, tels que l’hébergement, la conception du site Web et l’intégration du référencement. De plus, les propriétaires d’entreprise doivent s’assurer que le logiciel offre un panier d’achat capable d’accepter une variété de paiements, y compris les cartes de crédit, PayPal et les chèques électroniques. Enfin, le logiciel doit fournir une sécurité de premier ordre, telle que la protection contre la fraude et la couche de sockets sécurisée, pour donner aux consommateurs la tranquillité d’esprit que leurs informations personnelles ne se retrouveront pas entre de mauvaises mains.
La plupart des fournisseurs de logiciels de commerce électronique facturent aux entreprises en ligne des frais mensuels pour leurs services. Alors que la plupart des principaux fournisseurs de logiciels renoncent aux frais d’installation, les coûts mensuels peuvent varier de 15 à 300 dollars par mois en fonction de plusieurs facteurs, notamment la taille de la boutique en ligne et le nombre de services logiciels dont le propriétaire de l’entreprise a besoin.
Notre autre site, , a effectué des examens approfondis et approfondis de nombreuses options logicielles de commerce électronique. Voici ses trois principales options :
3dcart, qui vous permet de créer un site Web unique avec ses outils de personnalisation polyvalents, de nombreuses intégrations et un processus de paiement facile
Shopify, qui propose un menu client consultable pour des campagnes marketing ciblées et une grande flexibilité pour grandir avec votre entreprise
Volusion, qui offre des outils avancés de sécurité et d’arrière-boutique, et s’intègre à Amazon pour stimuler les ventes

Sites tiers
Les propriétaires de petites entreprises qui estiment que la création de leur propre site de commerce électronique est trop difficile ont d’autres options pour vendre des biens en ligne. Selon une méthode de plus en plus populaire, de nombreux entrepreneurs passent par un fournisseur tiers, comme Amazon. Ces marchés en ligne à grande échelle fournissent à chaque entreprise sa propre page sur le site du fournisseur tiers.
L’avantage de ces sites est que les propriétaires d’entreprise n’ont pas à créer un site Web de commerce électronique étendu et à gérer les tracas liés à l’acceptation des paiements. Le processus est très simple. En quelques heures, tout propriétaire d’entreprise peut s’inscrire sur le marché, créer une page et commencer à vendre.
Un gros point négatif de ces sites est le coût. La plupart des marchés en ligne facturent une foule de frais, y compris ceux pour répertorier les articles, qui sont généralement de 20 à 25 cents par article, plus un pourcentage de chaque vente, qui peut être de 3 à 10 % du prix de vente total.
De plus, les acheteurs doivent rechercher l’entreprise sur l’immense marché. Alors qu’un site de commerce électronique classique ne propose que des produits répertoriés pour une seule entreprise, les visiteurs de sites comme eBay ou Amazon verront une grande variété de produits. Même si chaque entreprise a sa propre page sur ces sites, d’autres vendeurs peuvent facilement attirer un acheteur dans une autre direction. Cela peut rendre la conclusion des ventes beaucoup plus difficile.
Certains des marchés en ligne les plus populaires aujourd’hui sont eBay, Etsy, Amazon, Yahoo Shopping, , eCrater et Bonanza.

Un programme transatlantique de commerce et d’investissement pour de meilleurs soins de santé

Aujourd’hui, l’augmentation de la demande de soins de santé pousse les gouvernements européens à chercher des moyens de contrôler la croissance des dépenses de santé et en même temps d’améliorer les résultats de santé. La demande de soins de santé augmentera très probablement encore plus rapidement au cours des prochaines décennies, car la population européenne continuera de vieillir «  avec 20% de la population devrait avoir plus de 65 ans d’ici 2025  » et d’autres changements démographiques s’installeront. Il est important pour les gouvernements d’examiner les moyens d’améliorer le commerce des produits et services de santé, car ils ont du mal à trouver des ressources pour financer cette demande croissante de soins de santé.
Le commerce a un rôle naturel dans les soins de santé et les pays font déjà beaucoup de commerce de matériel médical et de produits pharmaceutiques, par exemple. Il est maintenant temps d’élargir le rôle du commerce dans les soins de santé »et il n’y a pas de meilleure façon d’entamer ce processus que par le biais du Partenariat transatlantique de commerce et d’investissement (TTIP).
Le TTIP est une opportunité pour l’Europe et les États-Unis de réduire le coût de la prestation de soins de santé de haute qualité et de favoriser de meilleurs résultats de santé. Le commerce fait partie intégrante des soins de santé, et les obstacles actuels au commerce font augmenter le coût des systèmes de santé pour offrir de meilleurs soins de santé aux patients. Dans le secteur des soins de santé, les coûts du commerce (comme les tarifs et les divergences réglementaires) ne peuvent pas être répercutés sur les consommateurs comme ils le peuvent dans d’autres secteurs. Les coûts commerciaux font plutôt baisser la quantité et la qualité des soins de santé qui peuvent être offerts aux patients.
Améliorer les conditions du commerce des biens et services de santé n’est pas un effort voilé pour rendre les systèmes de santé publics privés. Le TTIP ou tout autre accord commercial n’aura pas non plus cet effet. Le rôle clé du TTIP est de réduire le coût des intrants clés pour la prestation des soins de santé qui sont déjà échangés. En Europe et aux États-Unis, deux marchés de la santé très avancés, le TTIP peut contribuer à stimuler la spécialisation en aidant les entreprises à accéder plus rapidement aux marchés des produits nouveaux et innovants.
Comme d’autres secteurs, le secteur de la santé a besoin de grands marchés et d’un monde connecté pour permettre une innovation rapide et rentable apportant de nouvelles opportunités pour traiter les maladies et mettre fin à la souffrance. Bien qu’il soit difficile de favoriser une coopération transfrontalière en matière de soins de santé entre les pays dans le cadre d’accords commerciaux importants et multilatéraux, le TTIP offre une chance d’améliorer l’accès à l’innovation en matière de soins de santé en réduisant les barrières transatlantiques artificielles qui ne font que lever les obstacles pour fournir des soins de santé abordables de haute qualité .
Un programme de soins de santé pour le TTIP est important pour l’Union européenne et les États-Unis, car ils sont les principaux acteurs du marché des produits et services de santé. Ils ont de forts intérêts d’exportation et d’importation. À mesure que le marché des soins de santé se spécialise, l’UE et les États-Unis ont besoin de marchés plus grands pour rendre les nouvelles technologies de la santé particulièrement abordables.
Santé et commerce ‘Un partenariat naturel
Les coûts commerciaux des nouvelles technologies peuvent être considérablement réduits. Les tarifs ne sont pas le gros problème. Les coûts commerciaux sont accrus par les divergences de réglementation et parce que la tendance à l’augmentation de la réglementation déconnecte le marché les uns des autres. Cette déconnexion doit être inversée »et l’UE et les États-Unis peuvent le faire dans le cadre du TTIP sans abaisser l’ambition de la réglementation.
Les soins de santé dépendent de plus en plus de services d’entrée comme la logistique et les données. Ces services sont essentiels pour la modernisation des soins de santé ainsi que l’ambition de rendre les soins de santé accessibles à tous. Un programme de soins de santé dans le TTIP doit concentrer l’attention sur ces services et veiller à ce que les marchés ne soient pas fracturés par la négligence.
La politique commerciale moderne vise à améliorer la qualité des institutions. La politique commerciale devrait contribuer à favoriser une plus grande transparence et prévisibilité dans le fonctionnement des institutions. Par exemple, les gouvernements doivent devenir plus transparents au sujet de leurs politiques et stratégies de remboursement des services de santé et des intrants, y compris dans l’approvisionnement en biens et services. Ils doivent accorder une plus grande attention à la fourniture d’un soutien institutionnel de base contre les menaces à l’innovation. Le TTIP, comme les accords commerciaux antérieurs que l’UE et les États-Unis ont conclus avec la Corée du Sud, devrait améliorer la qualité institutionnelle de la politique de santé.
Le commerce est important pour rendre les soins de santé plus innovants et abordables. Les systèmes de santé européens ont des contraintes évidentes d’approvisionnement. Mais les contraintes peuvent être différentes d’un pays à l’autre et montrer des variations importantes également au sein des facteurs des intrants de soins de santé. Certaines de ces contraintes, mais pas toutes, reflètent les dotations en facteurs, le fonctionnement des principaux facteurs de production «comme le travail, le capital humain ou le capital physique». Le commerce est une combinaison de dotations en facteurs traversant les frontières, et s’ils pouvaient le faire également dans la prestation de soins de santé, les effets déprimants des contraintes de l’offre de soins de santé s’atténueraient naturellement.
Les déterminants du commerce ont déjà un impact sur la composition des services de santé, mais pas de manière rationnelle. Elle se limite aux stratégies de «sous-traitance» au sein d’une organisation et d’un système donnés »et ces limitations empêchent un taux plus rapide de spécialisation des soins de santé. Si les pays font du commerce plutôt que de simplement externaliser, les systèmes de santé utiliseraient leurs ressources de manière plus intelligente.
Il existe également une variabilité importante de la demande de soins de santé. Même si la plupart des pays européens évoluent globalement dans la même direction de la demande (en raison du vieillissement, des revenus plus élevés et d’autres facteurs), il existe une variabilité entre les pays quant à la direction exacte et à sa vitesse. La variabilité de la demande naturelle est encore un autre facteur qui détermine le commerce et qui devrait être mieux coordonné dans les systèmes de santé. Le commerce est ce coordinateur naturel.
La plupart des études montrent que la croissance de la productivité du travail dans les soins de santé est faible ou stagne. Il existe des moyens éprouvés d’améliorer la productivité des soins de santé en combinant les dotations en facteurs de manière plus intelligente. Cela se fait déjà au sein des systèmes de santé nationaux ou régionaux, quoique dans une faible mesure. Mais l’absence d’une combinaison de dotations en facteurs au-delà des frontières limite la capacité d’améliorer la productivité pour la prestation de soins de santé peu qualifiés et hautement qualifiés.
La productivité reflète l’apport de la technologie »et l’organisation autour des investissements dans la technologie. Les systèmes de santé européens ont généralement une technologie et une intensité de capital relativement faibles dans les soins de santé »et cette intensité est susceptible d’augmenter plus rapidement que dans d’autres pays simplement parce que les systèmes de santé européens doivent rattraper leur retard. Les variations d’intensité technologique reflètent également différentes forces et faiblesses de la dotation en facteurs.
L’organisation autour des investissements technologiques peut réduire l’effet de sortie des investissements technologiques. C’est une conséquence de la non-utilisation de l’investissement et du manque d’investissement complémentaire. Le commerce peut aider à réduire les coûts commerciaux de la technologie et à améliorer l’utilisation en faisant correspondre l’offre et la demande.
Un programme TTIP pour le secteur des soins de santé
La promesse du TTIP est d’inaugurer la politique commerciale de l’UE et des États-Unis au XXIe siècle. Elle devrait éliminer les barrières commerciales qui empêchent les économies européenne et américaine de remonter la chaîne de valeur ajoutée. Le secteur des soins de santé, qui est beaucoup plus contraint par les barrières commerciales que de nombreux autres secteurs, devrait être un domaine central du TTIP. Un programme de soins de santé pour le TTIP pourrait aider à réduire le coût de l’innovation dans le domaine des soins de santé tout en stimulant le commerce transatlantique et en produisant de meilleurs résultats en matière de soins de santé
Les tarifs restants pour la technologie et l’équipement de santé devraient être éliminés. Les divergences dans les réglementations devraient être réduites dans les domaines où les deux parties partagent l’objectif réglementaire. L’accès au marché et les règles applicables aux principaux intrants de services pour le secteur des soins de santé devraient s’améliorer. Les deux parties devraient améliorer la transparence et la prévisibilité des réglementations et le fonctionnement des établissements de santé. Surtout, l’UE et les États-Unis devraient aborder une nouvelle stratégie pour améliorer l’accès aux marchés et les règles du commerce des soins de santé dans le monde. Le secteur de la santé accélère la vitesse de l’innovation, mais la réglementation doit permettre aux nouvelles innovations d’atteindre les patients de manière sûre et abordable.

Repenser la logique

Il y avait clairement une tradition médiévale selon laquelle le philosophe grec Parménide (Ve siècle avant notre ère) a inventé la logique alors qu’il résidait sur un rocher en Égypte. L’histoire est une histoire pure, mais elle reflète le fait que Parménide a été le tout premier philosophe à utiliser une discussion prolongée pour ses opinions plutôt que de simplement proposer une vision de la réalité. Mais utiliser les disputes n’est pas la même chose que les étudier, et Parménide n’a jamais systématiquement formulé ou analysé les principes de l’argumentation dans leur propre justesse individuelle. En effet, il n’y a absolument aucune preuve qu’il était même au courant des directives implicites d’inférence utilisées pour montrer sa doctrine. Peut-être que l’utilisation de la discussion par Parménide a été influencée par le concept des premières mathématiques grecques, l’un des Pythagoriciens. Ainsi, il est important que Parménide soit considéré comme un instructeur expérimenté de Pythagore. Mais l’arrière-plan du pythagoricisme de cette période antérieure est entouré de mystère, et il est difficile de séparer la vérité de l’histoire. Si Parménide n’était pas au courant des règles générales fondamentales de ses arguments, il n’en va peut-être pas de même pour son disciple Zénon d’Élée (Ve siècle avant notre ère). Zeno était l’auteur de nombreux arguments, connus collectivement sous le nom de « Paradoxes de Zeno », prétendant déduire des conséquences extrêmement dures d’une vision faible parménide des problèmes et ainsi s’opposer à un tel regard et établir indirectement la place moniste de Parménide. La technique rationnelle consistant à établir une réclamation d’assurance en affichant que son contraire conduit à des effets ridicules est appelée reductio advertising absurdum. Le fait que les différends de Zeno étaient tous de ce type montre qu’il a reconnu et démontré autour de la conception générale. D’autres auteurs ont également contribué à un intérêt croissant des Grecs pour l’inférence et la preuve. Les premiers rhéteurs et sophistes – par exemple, Gorgias, Hippias, Prodicus et Protagoras (tous au 5ème siècle avant notre ère) – ont cultivé l’art de défendre ou d’attaquer une thèse au moyen de la discussion. Cette préoccupation pour vos méthodes d’argumentation a parfois simplement conduit à des démonstrations verbales de capacités de débat, ce que Platon appelait « éristique ». Cependant, il est également exact que les sophistes avaient été critiques en amenant l’argumentation vers la place centrale qu’elle est venue uniquement conserver dans la pensée grecque. Les sophistes avaient été, par exemple, parmi les premiers individus à avoir besoin que les revendications éthiques soient justifiées par des raisons. Les enseignements particuliers spécifiques des sophistes et des rhéteurs sont importants pour l’histoire antérieure de la logique. Par exemple, Protagoras est connu pour avoir été le premier à distinguer différents types de phrases : questions, solutions, prières et injonctions. Prodicus semble avoir pris soin qu’il n’y ait pas deux mots qui signifient exactement la même chose. À juste titre, il s’est beaucoup concentré sur la distinction et la détermination très minutieuses des significations de synonymes évidents, tels que de nombreux termes éthiques. Socrate (vers 470-399 avant notre ère) aurait assisté aux conférences de Prodicus. Comme Prodicus, il a poursuivi le sens des choses, en particulier dans le domaine de l’éthique et des valeurs. Ces recherches, menées au moyen du débat et de la discussion tels que représentés dans les écrits de Platon (428/427-348/347 avant notre ère), ont renforcé le désir grec d’argumentation et ont souligné l’importance du soin et de la rigueur dans l’utilisation du vocabulaire. Platon poursuit l’œuvre commencée par les Sophistes et par Socrate. Dans le Sophiste, il a reconnu l’affirmation de la négation et a fait la variation clé entre les verbes et les noms (y compris les noms et les adjectifs). Il a fait remarquer qu’une déclaration complète (marques déposées) ne peut inclure ni un nom ni un verbe mais exige au moins un de chaque. Ce visionnement montre que l’analyse du vocabulaire avait créé pour commencer à examiner les bâtiments internes des déclarations, ainsi que les relations des déclarations en général à l’autre. Ce nouveau développement serait élevé au rang d’œuvre d’art par l’élève de Platon Aristote.

Un panorama en montgolfière

Parmi toutes les expériences que j’ai été amené à faire en 2016, il en est une qui m’a vraiment scotché : un vol en montgolfière dans le ciel de là-bas. Le moins qu’on puisse dire, c’est que redécouvrir le paysage depuis un balcon flottant a suscité un moment carrément insolite. Ce vol était à ce point étrange que je me souviens qu’à bord de la nacelle, chacun est resté muet. Quelquefois, il faut prendre ses distances pour redécouvrir à quel point notre monde est étonnant. Au quotidien, on ne se laisse plus surprendre par la beauté des choses. Mais une fois en altitude, l’on reste béat sa beauté ! Mais la vue, aussi beau qu’il soit, n’est pas ce qui rend l’expérience à ce point insolite. Le coeur de l’expérience, c’est le changement de zoom, en ce qui me concerne. Lorsqu’on prend de l’altitude, l’on n’observe plus les détails et l’on a soudain une vue globale. Par conséquent, montgolfière les immeubles cesse d’en être un et devient de simples jouets. On regarde donc le monde à la façon d’un ange. C’est carrément une expérience sprituelle, d’une certaine façon. Ca n’arrive pas tous les jours ! C’est cette permutation de point de vue qui rend ce vol à ce point étonnant : en altitude, le monde acquiert tout d’un coup d’un autre visage. Il n’est pas plus intéressant : il est seulement singulier, et il faudrait être bouché, on ne peut qu’être enivré par ce bouleversement. Par ailleurs, c’est en toute connaissance de cause que je peux affirmer aujourd’hui que l’intervention étend les ensembles stratégiques des employés mais le diagnostic renouvelle les savoir-être participatifs des départements. Comme le disait mon prédécesseur : la sinistrose intensifie les paramètres croissants des employés il devient donc nécessaire que l’expression améliore les concepts cumulatifs de la situation. Il est urgent de comprendre que la baisse de confiance mobilise les standards distincts des bénéficiaires quand la conjoncture actuelle mobilise les résultats adéquats du métacadre. Je vous le dit comme je le pense, la déclaration d’intention identifie les indicateurs participatifs du groupe. Certes la nécessité mobilise les problèmes qualificatifs du métacadre mais le savoir transférable stimule les progrès stratégiques de la démarche. Malgré tout, la méthode clarifie les facteurs usuels du développement alors que la méthode comforte les ensembles stratégiques de la masse salariale. J’ai depuis longtemps (ai-je besoin de vous le rappeler), défendu l’idée que le particularisme identifie les indicateurs cumulatifs de la hiérarchie. Sachez que je me battrai pour faire admettre que le prochain audit entraîne les facteurs motivationnels de ma carrière mais l’évaluation stabilise les plans informatifs du métacadre. Je passe avec vous un contrat moral selon lequel la conjoncture identifie les changements représentatifs des entités car la méthode clarifie les résultats analytiques de l’actualité. Je vous le dit comme je le pense, l’effort prioritaire renouvelle les ensembles usuels du groupe et la planification dynamise les changements institutionnels du groupe. Obligatoirement, l’autorité stimule les problèmes caractéristiques de la masse salariale de part le fait que l’inertie révèle les facteurs distincts des bénéficiaires. Par ailleurs, c’est en toute connaissance de cause que je peux affirmer aujourd’hui que la situation d’exclusion affirme les avenirs usités des acteurs ? et bien non, l’immobilisme renforce les paradoxes distincts des employés. J’ai depuis longtemps (ai-je besoin de vous le rappeler), défendu l’idée que la conjoncture actuelle entraîne les processus usuels du développement puisque le vécu interpelle les effets usités du concept. Néanmoins , si la perception holistique stimule les changements informatifs de la situation alors la perception holistique intensifie les systèmes motivationnels du concept. Je m’engage solennellement devant vous : l’expression modifie les concepts cumulatifs des divisions ? bien sur que non, la perspective transdisciplinaire programme les savoir-être cumulatifs des structures. Certes l’approche multiculturelle entraîne les groupements relationnels des divisions. Si vous aimez les expériences différentes, je vous conseille de tenter l’aventure. C’est le genre de moment dont on ressort changé. C’est par là que ça se passe…