Catégorie : International

  • La ville façonne le trafic et le trafic façonne la ville

    La ville façonne le trafic et le trafic façonne la ville

    Des chercheurs de l’ETH Zurich et de l’Université du Wisconsin-Madison ont mis en relation des données de géoinformation de 30 grandes villes du monde avec des données de congestion. Pour la première fois, ils sont parvenus à démontrer non seulement des corrélations, mais aussi de véritables relations de cause à effet entre les changements urbains et la fluidité du trafic. L’étude a été publiée en avril 2026 dans la revue scientifique « Nature Communications ».

    Trois facteurs, un embouteillage
    L’équipe de chercheurs dirigée par Yatao Zhang, premier auteur, a distingué trois dimensions. La structure du réseau routier, la forme spatiale de la ville et la fonction de certaines surfaces, à savoir si l’on y habite, y fait ses courses ou y travaille. Il est surprenant de constater que le réseau routier n’est pas le seul à déterminer le flux de circulation. Une ville dispersée génère structurellement plus de trafic. La concentration d’offres de loisirs dans un quartier fait augmenter le trafic de week-end. En revanche, les zones à usage mixte, où l’habitat et le travail sont proches l’un de l’autre, raccourcissent les trajets pendulaires et réduisent le volume de trafic. « Le trafic est généré par ce que font les gens, pas seulement par l’existence de routes », résume Zhang.

    Singapour versus Zurich
    La comparaison internationale révèle de fortes différences. A Singapour, les zones résidentielles sont clairement séparées du centre de services et les modifications architecturales se répercutent directement sur les flux de pendulaires. A Zurich, ce couplage est nettement plus faible, car les logements sont répartis dans toute la ville et les trajets domicile-travail sont plus courts et plus variés. De telles différences peuvent désormais être mesurées et comparées systématiquement pour la première fois.

    Ce que cela signifie pour la planification
    Le professeur de l’EPFZ Martin Raubal, qui a supervisé l’étude, voit un grand potentiel pour la planification urbaine et des transports. La nouvelle méthode permet de faire des prévisions sur la manière dont une intervention, comme la construction d’un grand centre commercial, se répercute à moyen terme sur le trafic. Les villes pourraient ainsi mieux simuler des mesures avant de les mettre en œuvre. Pour des recommandations concrètes à Zurich ou dans d’autres villes, des analyses détaillées plus approfondies sont toutefois encore nécessaires.

    Données issues de sources ouvertes
    La base de données utilisée était principalement Open Street Map, complétée par les données d’embouteillage de Here Technologies, qui sont actualisées toutes les cinq minutes dans le monde entier. Pour la seule ville de Los Angeles, les valeurs d’embouteillage de plus de 18 000 tronçons routiers ont été prises en compte dans l’évaluation. Le fait qu’une telle étude se base sur des données géographiques accessibles au public rend l’approche reproductible et évolutive.

  • L’hybride est la nouvelle normalité

    L’hybride est la nouvelle normalité

    77 pour cent des entreprises suisses misent aujourd’hui sur des modèles de travail hybrides. C’est plus de deux fois plus qu’avant la pandémie. En Allemagne, 79 pour cent des entreprises proposent un travail hybride, la part des employés travaillant à domicile oscille de manière stable entre 23 et 24 pour cent. Parallèlement, l’analyse des offres d’emploi, un sismographe fiable pour les décisions à moyen terme des entreprises, montre que le travail hybride est constamment communiqué comme modèle de travail depuis 2023 dans environ 20 pour cent des offres allemandes et 15 pour cent des offres suisses.

    Recalibrage, pas capitulation
    Oui, le temps moyen de travail à domicile a légèrement baissé. En Suisse, il est passé de 1,36 à 1,15 jour par semaine, en Allemagne de 1,0 à 0,85 jour. Ceux qui y voient la fin de la flexibilisation lisent mal les données. Seuls 4 à 5 pour cent des entreprises allemandes envisagent de supprimer complètement le home office. 74 pour cent prévoient de conserver des modèles hybrides, 11 pour cent veulent même étendre la flexibilité. Ajuster la pensée entrepreneuriale, elle ne revient pas en arrière.

    Repenser le bureau
    La vraie question n’est pas de savoir combien de jours une personne passe au bureau. Elle est de savoir pourquoi quelqu’un doit venir au bureau. 75% des collaborateurs considèrent le bureau comme un meilleur endroit pour les échanges sociaux, 58% pour le réseautage et la gestion de carrière, 49% pour l’interaction créative. Le bureau se transforme d’un lieu obligatoire en un point de contact pour ce qui ne fonctionne pas à distance. CBRE parle du « bureau en tant qu’attracteur », un lieu qui doit offrir une valeur ajoutée tangible pour justifier le déplacement. À l’échelle mondiale, le taux d’occupation des bureaux s’est entre-temps redressé pour atteindre 53 %, le niveau le plus élevé depuis mars 2020.

    Ce que les entreprises doivent faire maintenant
    Les données sont claires, les champs d’action aussi. 72 pour cent des entreprises interrogées se sont fixé pour objectif d’améliorer l’utilisation de l’espace de bureau. 66 pour cent veulent améliorer durablement l’expérience au bureau. En d’autres termes, des surfaces qui permettent la collaboration au lieu de l’empêcher. Des concepts qui organisent judicieusement les journées d’équipe et une culture d’entreprise qui ne force pas la présence, mais la rend attrayante. Si l’on considère le bureau comme un simple problème de coûts, on passe à côté de la véritable question stratégique. Quelle valeur crée-t-il pour l’homme et l’organisation ?

    La flexibilité comme facteur concurrentiel
    Le travail hybride est depuis longtemps plus qu’un sujet RH. C’est un facteur dans la lutte pour le personnel qualifié. Les entreprises qui vivent la flexibilité de manière crédible ont un avantage mesurable en matière de recrutement. L’étude ISG sur l’avenir du lieu de travail en Suisse montre que l’expérience de l’employé est devenue un levier central, de la collaboration à la disponibilité des locaux en passant par l’onboarding. Le travail hybride est la nouvelle norme et celui qui l’organise maintenant de manière stratégique se positionne comme l’employeur du futur.

  • Des cellules solaires qui se camouflent

    Des cellules solaires qui se camouflent

    La nature nous montre comment faire. Le papillon morpho produit l’éclat bleu intense de ses ailes non pas grâce à des pigments, mais grâce à des microstructures tridimensionnelles qui réfractent et réfléchissent la lumière. Des chercheurs du Fraunhofer ISE ont appliqué ce principe aux modules photovoltaïques. Un processus sous vide applique une structure de surface similaire sur le verre de couverture ou sur des films flexibles. Selon la finesse de la structure, on obtient ainsi des modules aux couleurs les plus diverses, du rouge brique à l’anthracite. Le résultat porte le nom de MorphoColor®.

    Motifs directement dans le module
    La nouveauté réside désormais dans la technique « ShadeCut », qui consiste à munir les films colorés d’encoches transparentes et à intégrer ainsi des motifs et des dessins complexes directement dans les modules solaires. Un laser ou un processus de découpe piloté par CAO insère le motif souhaité dans le film, qu’il s’agisse d’une structure en briques, d’une maçonnerie ou d’un logo d’entreprise. La technique fonctionne avec tous les modules photovoltaïques et solaires thermiques courants et peut être utilisée aussi bien comme film d’enrobage flexible que comme film de face arrière. Les modules colorés atteignent environ 95 pour cent de la performance d’un module comparable sans revêtement.

    La fin du dilemme de la protection des monuments
    Jusqu’à présent, le photovoltaïque intégré au bâtiment a souvent échoué en raison d’exigences esthétiques. En Suisse et en Allemagne, les bâtiments classés monuments historiques et les zones de protection des sites constituaient justement des obstacles importants. Dans plusieurs Länder allemands, la protection des monuments historiques a déjà été assouplie, à condition que la couleur des modules s’accorde avec celle de l’enveloppe du bâtiment. Les modules peuvent imiter à s’y méprendre la maçonnerie ou les tuiles et s’adapter parfaitement aux couleurs, explique le Dr Martin Heinrich, chef de groupe au Fraunhofer ISE. Une façade de démonstration en 78 nuances de couleurs a déjà été réalisée à la HSLU dans le cadre d’un projet Innosuisse dans la ville de Viscosis à Emmenbrücke.

    Le BIPV sur le point de percer
    Le marché du photovoltaïque intégré au bâtiment connaît une croissance rapide. Au niveau mondial, il est estimé à environ 85,9 milliards de dollars d’ici 2034, contre 28,3 milliards en 2026. En Suisse, depuis cette année, la procédure de déclaration des installations en façade simplifie les procédures d’autorisation, ce qui donne une nette impulsion à la demande de solutions esthétiques en façade. Les premiers modules tandem commerciaux axés sur le BIPV sont attendus en 2026 pour des marchés de niche. Fraunhofer ISE estime le potentiel total du PV sur les bâtiments à environ 1 000 GWp d’ici 2045.

    Ce qui a vu le jour en laboratoire à Fribourg arrive maintenant sur les toits et les façades via un partenaire suisse.

  • Plus d’IA ne résout pas les problèmes de données

    Plus d’IA ne résout pas les problèmes de données

    L’erreur commence par l’investissement
    C’est un schéma familier : une entreprise reconnaît le potentiel de l’intelligence artificielle, passe en revue les solutions, choisit un outil – et se lance. L’attente : la nouvelle technologie élimine d’une manière ou d’une autre les problèmes de données existants. La réalité : Elle ne le fait pas. Elle les rend plus visibles.

    Ce n’est pas un hasard. C’est la conséquence d’un mauvais ordre.

    Les données sont collectées – mais pas rendues utilisables
    Dans la plupart des entreprises immobilières, il existe des données. Données sur les objets, données sur les locataires, indicateurs d’exploitation, historiques d’entretien – elles existent. Le problème n’est pas leur absence, mais leur constitution. Elles sont dispersées dans les systèmes, gérées de manière incohérente, définies de manière contradictoire ou ne peuvent tout simplement pas être reliées entre elles. Pour le même indicateur, il existe parfois trois versions différentes – dans trois systèmes différents.

    Dans ces conditions, celui qui met en place un modèle d’IA n’obtient pas de réponses. Il obtient des sorties qui renforcent les imprécisions existantes – de manière automatisée et à grande vitesse. L’IA reconnaît des modèles dans les données. Si les données sont incohérentes, le modèle apprend de l’incohérence. Si elles sont incomplètes, il opère sur une base lacunaire.

    Une nouvelle couche de complexité
    Ce qui se produit dans la pratique n’est pas un gain d’efficacité. C’est une nouvelle couche de complexité : des résultats d’IA auxquels personne ne fait confiance. Des départements spécialisés qui vérifient manuellement les résultats. Des projets qui s’enlisent. Beaucoup d’efforts, peu d’effets, une frustration croissante.

    Fatal : de nombreuses entreprises réagissent en mettant à jour leurs outils. Le cycle recommence.

    Un Data Hub n’est pas un outil – c’est une structure
    La solution ne réside pas dans de meilleurs modèles. Elle réside dans une décision structurelle : la création d’une base de données commune et harmonisée. Un hub de données n’est pas un système supplémentaire qui s’ajoute à l’environnement informatique existant. C’est tout le contraire : il remplace la fragmentation par une disponibilité centrale. Il intègre des sources de données distribuées, élimine les silos et les incohérences et crée la base pour des applications d’intelligence artificielle évolutives et des rapports automatisés.

    L’important n’est pas de savoir où se trouvent les données. Ce qui compte, c’est la manière dont elles deviennent utilisables : définies de manière uniforme, avec une assurance qualité, accessibles pour différents cas d’application. Ce n’est que sur cette base que l’IA peut faire ce qu’elle promet.

    La qualité des données n’est pas un travail préparatoire – c’est une tâche permanente
    Même avec un Data Hub, un défi central subsiste : La qualité des données n’est pas un projet de nettoyage unique avant la mise en service. C’est un processus continu. Si l’on considère la qualité des données comme un avant-projet, on constatera après le lancement que le véritable problème ne fait que commencer.

    La base de données est complétée par un catalogue de données : Il documente de manière transparente quelles données existent, d’où elles proviennent et quel est leur degré de fiabilité. Il crée le langage commun qui relie les départements spécialisés et la technologie – et redonne le contrôle à l’organisation.

    Dans le webinaire : de la base de données à l’IA évolutive
    Nous montrons comment les entreprises immobilières peuvent aborder concrètement cette transformation – de l’architecture des données à l’utilisation productive de l’IA en passant par l’assurance qualité – dans notre webinaire gratuit « L’architecture IA optimale : comment le hub de données, la qualité des données et le catalogue de données font la différence ». Avec des aperçus pratiques, des solutions concrètes et du temps pour vos questions.

    Inscrivez-vous maintenant gratuitement

  • Le matériau qui pense – sans cerveau

    Le matériau qui pense – sans cerveau

    Le matériel se compose d’une chaîne d’articulations identiques, reliées par une structure élastique. Un microcontrôleur intégré mesure la position actuelle, mémorise les états passés et échange des informations avec les éléments voisins. Le comportement global résulte de l’interaction de nombreuses unités simples. Exactement comme chez les organismes simples qui réagissent à leur environnement sans cerveau complexe.

    Apprentissage par la répétition
    Des articulations individuelles sont placées dans des positions définies, les autres éléments sont déplacés progressivement vers une structure cible. En plusieurs passages, appelés « époques » dans l’expérience, les microcontrôleurs adaptent les couples de rotation. La rigidité et les interactions au sein de la structure changent. L’ »information » n’est pas externalisée dans un logiciel, mais directement stockée dans la structure physique. Le premier auteur, Yao Du, résume ainsi la situation : « Dès que le système commence à apprendre, les possibilités d’évolution semblent presque illimitées »

    Trois capacités en un seul
    Le système maîtrise trois propriétés qui étaient jusqu’à présent réservées aux systèmes biologiques. Il apprend de nouveaux modèles de réaction à des entrées définies. Il enregistre simultanément plusieurs états et passe de l’un à l’autre en fonction de l’entrée. Des travaux antérieurs du laboratoire avaient déjà montré que de telles structures pouvaient se déplacer sans commande centrale. Ce qui est nouveau, c’est la capacité d’adaptation, car le matériau choisit sa forme de mouvement en fonction du stimulus environnemental.

    Champs d’application et prochaines étapes
    L’équipe de recherche voit le plus grand potentiel dans les composants adaptatifs qui s’adaptent à des charges variables, dans la robotique logicielle sans commande centrale, ainsi que dans les systèmes destinés à des environnements non structurés comme l’exploration. À partir d’août 2026, la recherche sera développée à Amsterdam en collaboration avec le groupe « Learning Machines ». L’agenda de recherche néerlandais NWA consacre en 2026 une priorité aux matériaux capables d’apprentissage. Outre les questions techniques, l’accent sera alors mis sur le contrôle et l’utilisation sûre.

    La frontière entre matériau et machine s’estompe
    Les matériaux passifs sont remplacés par des systèmes adaptatifs dont les propriétés se modifient activement. A l’avenir, il faudra intégrer un comportement dépendant du temps et la gestion de conditions incertaines, ce que l’on appelle des scénarios stochastiques. Cela augmente la robustesse et rend la technologie apte à être utilisée dans des environnements réels. L’intelligence ne résulte pas d’une commande centrale, mais de l’interaction de nombreux éléments simples.

  • Contrôler tôt, échouer à bon compte

    Contrôler tôt, échouer à bon compte

    SSbD est un cadre d’innovation holistique de l’Union européenne. Les nouveaux produits chimiques, matériaux, produits et technologies doivent être développés dès le départ de manière à ce qu’ils soient sûrs pour l’homme et l’environnement – et ce tout au long de leur cycle de vie. Derrière cela se cache un principe clair : identifier les risques à un stade précoce et les corriger à moindre coût, plutôt que de réagir tardivement et à grands frais. L’UE l’appelle à juste titre « fail early and fail cheap ».

    64 pour cent de concordance avec le droit européen
    Dans le cadre du projet européen IRISS, l’Empa a examiné 15 règlements européens centraux qui sont pertinents pour l’industrie européenne tout au long de la chaîne de création de valeur. Parmi elles, les ordonnances sur les produits chimiques, les piles et les emballages ainsi que la directive-cadre sur les déchets. 64 % de ces exigences réglementaires sont déjà couvertes par le cadre SSbD. « Dans de nombreux cas, la SSbD exige précisément les données et les évaluations dont les entreprises auront de toute façon besoin plus tard pour la conformité réglementaire », explique l’auteur de l’étude Akshat Sudheshwar de l’Empa.

    Les PFAS, un exemple à suivre
    Les risques des substances chimiques dites éternelles, les PFAS, ont été reconnus lors de leur introduction, mais ignorés pendant des décennies. Aujourd’hui, ils s’accumulent dans les organismes, ne sont pas dégradables dans l’environnement et entraînent des coûts énormes. Une approche SSbD aurait permis d’aborder ces risques à un stade précoce. Cet exemple montre les enjeux lorsque les entreprises ne prévoient la sécurité et la durabilité qu’après coup.

    Des dépenses supplémentaires qui se justifient
    SSbD augmente les dépenses dans la phase précoce de développement, Sudheshwar le reconnaît également. Investir tôt permet d’éviter des coûts ultérieurs dus à des interdictions de produits, des obligations d’assainissement ou des adaptations au marché. Le critère de réussite central pour les entreprises est la capacité à penser très tôt ensemble sécurité et durabilité et à développer l’expertise nécessaire dans les deux domaines.

    Limites et nécessité d’une action politique
    Des données fiables, des informations toxicologiques et des méthodes robustes font jusqu’à présent défaut. Le cadre SSbD reconnaît explicitement cette lacune et est adaptable. Au niveau politique, l’étude recommande des incitations pour les entreprises et des allègements réglementaires ainsi que des extensions de brevets ou des avantages économiques pourraient faciliter le démarrage. À long terme, la SSbD devrait être plus souvent intégrée dans les règlements de l’UE, pas nécessairement comme une obligation, mais comme une orientation stratégique.

  • Comment les systèmes numériques réorganisent le développement urbain

    Comment les systèmes numériques réorganisent le développement urbain

    Les villes modernes doivent gérer simultanément le transport, l’approvisionnement en énergie, le logement, l’infrastructure, l’administration et l’adaptation au climat. Et ce, alors que la population augmente et que les ressources se raréfient. Les approches « smart city » considèrent la ville comme un écosystème dans lequel la mobilité, l’énergie, les bâtiments, le climat et la gouvernance sont interdépendants. Les capteurs, les espaces de données et les plateformes numériques créent de la transparence, fournissent des informations en temps réel et améliorent la base des décisions à long terme. Ce qui est décisif, ce n’est pas la numérisation de silos individuels, mais l’interaction des systèmes.

    La Suisse dans le groupe de tête international
    Dans l’IMD Smart City Index, Zurich occupe depuis des années une place de choix et se trouve à nouveau en tête du classement mondial en 2025. Genève et Lausanne se classent également dans le top 10, ce qui souligne la force de l’approche suisse avec une qualité de données élevée, une infrastructure bien développée et un environnement de recherche solide. Parallèlement, des villes de taille moyenne comme Saint-Gall, Winterthour ou Lugano développent leurs propres stratégies de villes intelligentes, plateformes de données et projets pilotes. Souvent en se concentrant sur la mobilité, l’administration et l’énergie.

    Modèles internationaux et voies différentes
    Singapour est considérée comme une référence en matière de stratégies numériques nationales intégrées, dans lesquelles la mobilité, l’énergie, l’administration et la santé sont reliées par des données et des plateformes. Copenhague combine les technologies de la smart city avec une politique de durabilité cohérente et une mobilité à faibles émissions, tandis qu’Helsinki marque des points avec des approches de données ouvertes étendues et une administration numérique. Des villes comme Dubaï, Londres ou Amsterdam mettent l’accent sur des aspects différents. Des grands programmes d’infrastructure à la gouvernance éthique des données en passant par la mobilité axée sur les données. Elles ont toutefois en commun une volonté politique claire et des stratégies à long terme.

    Gouvernance, données et réalité fédérale
    La smart city n’est qu’en partie une question technique. Sans espaces de données solides, sans compétences clarifiées, sans règles de protection des données et sans processus décisionnels transparents, les projets restent fragmentaires. Dans la Suisse fédérale, s’ajoute le fait que les communes, les villes, les cantons et la Confédération doivent coordonner leurs rôles. Pour de nombreuses communes, Smart City est donc avant tout synonyme de modernisation des processus, de collaboration interministérielle et de nouvelle conception du développement urbain. Les UrbanTech et PropTech relient ici l’administration, le secteur immobilier, les systèmes d’énergie et de mobilité. Plus ces systèmes sont étroitement couplés, plus le levier pour un développement urbain durable est important.

    La technologie comme moyen, pas comme objectif
    Les smart cities les plus performantes du monde ne se distinguent pas par le nombre de leurs capteurs, mais par leur gestion de la complexité. Elles utilisent la technologie de manière ciblée pour améliorer la qualité de vie, la résilience et l’efficacité. Elles intègrent des solutions numériques dans des objectifs sociaux et écologiques. La Smart City est donc moins un projet informatique qu’un projet de développement urbain dans lequel la technologie reste un outil. Ce qui est décisif, c’est la manière dont les villes prennent des décisions plus intelligentes, plus inclusives et plus durables à l’aide de données et de systèmes numériques.

    Qu’est-ce qu’une Smart City exactement ?
    Smart City – définition précise :

    Une Smart City est une ville qui utilise les technologies numériques, les données et les systèmes en réseau pour améliorer la qualité de vie, la durabilité, l’efficacité et la participation. Elle intègre l’énergie, la mobilité, les bâtiments, l’administration et l’environnement dans un modèle commun de données et d’organisation et utilise ces informations pour gérer intelligemment les services, l’infrastructure et la planification urbaine.
    Ce qui est décisif, ce n’est pas la technologie elle-même, mais la capacité à l’utiliser de manière responsable, sûre et ciblée, dans l’intérêt de l’ensemble de la population.

    Les smart cities promettent efficacité, durabilité et de meilleurs services urbains. En même temps, elles comportent des risques qui doivent être soigneusement abordés. Les domaines suivants sont particulièrement critiques :
    Protection des données et surveillance

    Les capteurs, les caméras, les données de mobilité et les infrastructures en réseau génèrent d’énormes quantités de données sur le comportement, les mouvements et l’utilisation de la population. Sans règles claires, il peut en résulter un risque de surveillance, que ce soit par l’État ou le secteur privé.

    Le pouvoir des algorithmes
    Lorsque des systèmes basés sur des données dirigent des décisions, par exemple dans le domaine des transports, de l’administration ou de l’utilisation de l’énergie, le risque de processus opaques ou difficilement compréhensibles apparaît. Le manque d’explications ou des modèles invérifiables peuvent affaiblir la confiance de la population.

    Contrôle démocratique
    Les décisions relatives aux villes intelligentes se situent souvent à l’interface entre l’administration, les fournisseurs de technologies et les exploitants d’infrastructures. Les critiques mettent en garde contre le fait que les décisions importantes en matière de développement urbain pourraient être de plus en plus influencées par des systèmes techniques ou des entreprises privées.

    Inégalités sociales
    La numérisation est coûteuse. Les villes disposant de moins de ressources risquent de prendre du retard. Une « fracture numérique » peut également apparaître au sein d’une ville. Entre ceux qui peuvent utiliser tous les services et ceux qui en sont exclus. Que ce soit pour des raisons financières, techniques ou sociales.

    Complexité et dépendance
    Plus une ville est intelligente, plus elle est dépendante de systèmes numériques, de plateformes et de partenaires technologiques externes. Les pannes, les cyberattaques ou les défaillances techniques peuvent avoir des conséquences importantes sur l’infrastructure, la sécurité ou l’approvisionnement.

    Absence de normes et de gouvernance
    En l’absence de modèles de gouvernance clairs, des solutions isolées, des systèmes incompatibles et des responsabilités mal définies apparaissent. Cela peut réduire à néant les gains d’efficacité et compliquer les investissements à long terme.

    Gadgets urbains intelligents internationaux qui ont fait les gros titres
    Smart Lamp Posts, lampadaires connectés (Barcelone, Los Angeles, Londres)
    Lampadaires intelligents équipés de capteurs pour le trafic, le bruit, la météo, la qualité de l’air et la détection des places de parking.
    Ils ont fait sensation parce qu’ils sont déguisés en infrastructure inoffensive, mais collectent de grandes quantités de données.
    – Symbole de la technologie « visible invisible » des villes intelligentes.

    « Quayside Project » Sidewalk Labs Mâts à capteurs (Toronto)
    Alphabet/Google a planifié un quartier avec un environnement entièrement sensoriel.
    Température, mouvement, mobilité, déchets, énergie, tout devait être mesuré en temps réel.
    – A été stoppé suite à des critiques sur la protection des données. Discuté dans le monde entier.

    « Lampposts-as-a-Platform » (Singapour)
    Singapour a équipé des lampadaires de caméras, de microphones et de modules IoT, en tant qu’infrastructure pour la conduite autonome et les systèmes de sécurité.
    – Connu internationalement pour sa surveillance et son efficacité basées sur l’IA.

    Smart Waste Bins, poubelles solaires (Bigbelly, New York, Berlin, Vienne)
    Compacter les déchets, signaler les niveaux de remplissage et servir en partie de points d’accès WLAN.
    – A fait la une des journaux parce que certains modèles pouvaient collecter secrètement des données (« WLAN Tracking »).

    Parkings intelligents, parkings à capteurs (San Francisco, Amsterdam)
    Des capteurs au sol signalent les places de parking libres en temps réel.
    – Connu grâce au projet SFpark, qui a permis de réduire le trafic de manière mesurable.

    Autonomous Delivery Robots (Londres, Tallinn, San Francisco)
    Robots transportant des denrées alimentaires et des colis.
    – Médiatiques, car ils sont considérés comme de « nouveaux usagers de la route » sur les trottoirs.

    Feux de circulation basés sur l’IA (Hangzhou, Tel Aviv, Los Angeles)
    Les caméras et l’IA contrôlent les feux de circulation de manière dynamique, réduisant les temps d’embouteillage jusqu’à 30 %.
    – Le système « City Brain » d’Alibaba à Hangzhou est particulièrement connu.

    Programmes de drones pour le sauvetage et la logistique (Rwanda, Dubaï, Zurich)
    Des drones livrent des médicaments, des défibrillateurs et du matériel médical.
    – Connu pour Zipline (Rwanda) et la logistique médicale par drone en Suisse.

    Smart Benches avec fonction de charge et capteurs (Prague, New York, Dubaï)
    Des modules solaires chargent les smartphones, des capteurs intégrés mesurent les valeurs environnementales.
    – Viral, car ils allient design, énergie et technologie.

    Informations citoyennes holographiques et cartes AR (Séoul, Tokyo, Shanghai)
    Écrans AR interactifs pour la navigation, la participation ou l’administration.
    – Les premiers prototypes ont été célébrés lors de salons et partagés à l’échelle mondiale.

    Sound Traffic Light, systèmes radars pour le bruit (Paris)
    Des caméras et des microphones mesurent les véhicules trop bruyants et déclenchent automatiquement des amendes.
    – Grand écho médiatique grâce au respect de la vie privée contre la lutte contre le bruit.

    Police robotisée et véhicules de sécurité autonomes (Dubaï)
    Dubaï a été l’une des premières villes à présenter des robots de surveillance de type « Robocop ».
    – Sujet médiatique mondial, à la fois futuriste et controversé.

    Top 20 Smart Cities 2025 – Classement international

    1.Zurich (Suisse)
    Combinaison supérieure de qualité de vie, de gestion numérique, de mobilité et d’efficacité énergétique.

    2.Oslo (Norvège)
    Leader en matière de protection du climat, de solutions de mobilité autonome et de gouvernance numérique.

    3.Singapour (Singapour)
    Smart Nation comme principe directeur de l’État, mobilité & administration totalement intégrées.

    4.Genève (Suisse)
    Gouvernance internationale, gestion intelligente de la mobilité, haute qualité de service urbain.

    5.Copenhague (Danemark)
    Leader mondial du développement urbain durable et de la planification de la mobilité en réseau.

    6.Lausanne (Suisse)
    Forte recherche (EPFL), planification urbaine innovante, espaces de données sur la mobilité et l’énergie.

    7.Helsinki (Finlande)
    Données ouvertes, administration numérique et normes de transparence parmi les plus élevées au monde.

    8.Londres (Royaume-Uni)
    Données de mobilité, zones pilotes d’IA, économie de partage et première scène mondiale de GovTech.

    9.Abu Dhabi (EAU)
    Numérisation massive de l’administration, mobilité intelligente & infrastructure automatisée.

    10.Amsterdam (Pays-Bas)
    Pionnier en matière d’éthique des données, d’économie circulaire et de projets de villes intelligentes axés sur les citoyens.

    11.Stockholm (Suède)
    Forte infrastructure IoT, efficacité énergétique, accès numérique aux services publics.

    12.Séoul (Corée du Sud)
    Gouvernance intelligente, systèmes de feux de signalisation à IA, infrastructure urbaine hautement connectée.

    13.Dubaï (EAU)
    L’une des villes les plus axées sur la technologie au monde : transport autonome, impression 3D, GovTech.

    14.Vienne (Autriche)
    Excellence administrative, smart living, innovation sociale et résilience urbaine.

    15.Barcelone (Espagne)
    Capteurs urbains, plates-formes de mobilité, mouvement Open Data et Civic Tech.

    16.Prague (République tchèque)
    Montée en puissance en Europe : mobilité intelligente, administration numérique, initiatives open data.

    17.Tokyo (Japon)
    Mobilité autonome, robotique, infrastructure intelligente à l’échelle d’une mégapole.

    18.Tallinn (Estonie)
    Champion du monde de l’e-gouvernement, administration basée sur la blockchain, identité numérique.

    19.Canberra (Australie)
    Administration numérique et systèmes de mobilité de très haut niveau.

    20.Vancouver (Canada)
    Urbanisme durable, mobilité intelligente, forte scène de la technologie et de l’innovation.

  • L’hydrogène peut beaucoup, mais pas tout

    L’hydrogène peut beaucoup, mais pas tout

    Dans le cadre d’une méta-analyse des faits, l’institut Fraunhofer ISI a analysé 774 affirmations individuelles et les a condensées en 77 affirmations clés. Il n’en est pas résulté un nouveau document d’opinion, mais une synthèse de l’état actuel des connaissances. Le résultat est nuancé, mais sans équivoque sur les points essentiels. L’auteur principal, Nils Bittner, le résume ainsi : l’hydrogène peut avoir un impact énorme là où il n’existe pas d’alternatives équivalentes. Là où de telles alternatives existent, son utilisation coûte de précieuses ressources et du temps.

    Le goulot d’étranglement de l’efficacité
    Le problème fondamental réside dans la physique. L’hydrogène vert est produit par électrolyse. Selon le procédé, il faut environ 50 à 60 kWh d’électricité par kilogramme. La compression, le transport et la reconversion consomment encore plus d’énergie. Au final, il ne reste souvent qu’une fraction des kilowattheures utilisés au départ. Les pompes à chaleur et les véhicules à batterie utilisent donc la même électricité de manière beaucoup plus efficace.

    Là où H₂ reste indispensable
    Malgré tout, il existe des domaines où l’hydrogène n’a pas d’alternative valable. L’industrie sidérurgique en a besoin pour réduire le minerai de fer, l’industrie chimique comme matière première pour l’ammoniac et le méthanol. L’aviation, la navigation et le transport lourd ne peuvent guère être électrifiés directement. L’hydrogène est ici le moyen de choix. Il n’existe pas non plus actuellement d’alternative comparable pour le stockage saisonnier d’énergie à long terme, sur plusieurs semaines ou mois. En Suisse, cette évaluation coïncide avec la stratégie de la Confédération en matière d’hydrogène, qui prévoit H₂ en premier lieu pour la chaleur industrielle à haute température et les secteurs des transports difficilement décarbonisables.

    Le problème de l’œuf et de la poule freine la montée en puissance
    Une économie de l’hydrogène qui fonctionne a besoin d’infrastructures, comme des pipelines, des réservoirs en caverne, des installations d’électrolyse. Mais les entreprises n’investissent que lorsque l’approvisionnement est assuré et les exploitants de réseaux ne construisent que lorsque la demande est suffisante. Ce problème de la poule et de l’œuf ralentit considérablement le démarrage du marché. C’est pourquoi le Fraunhofer ISI recommande de se concentrer sur les clusters industriels plutôt que de construire un réseau couvrant tout le territoire jusque dans les zones résidentielles.

    Les importations ne résolvent le problème qu’à moitié
    L’Allemagne devra importer jusqu’à 80 pour cent de ses besoins en hydrogène. Le transport sur de grandes distances nécessite généralement une transformation en ammoniac ou en hydrogène liquide, avec des pertes d’énergie supplémentaires. Au lieu de dépendances fossiles, de nouvelles chaînes d’approvisionnement mondiales voient ainsi le jour. La Suisse ne deviendra pas non plus autosuffisante en hydrogène. Les cantons de Bâle-Ville et de Bâle-Campagne ont adopté pour la première fois en février 2026 une stratégie commune pour l’hydrogène et calculent pour 2050 un besoin de 0,4 à 3,4 pour cent du besoin énergétique total, concentré sur l’industrie et le trafic lourd.

  • Comment les chercheurs font du béton un sauveur du climat

    Comment les chercheurs font du béton un sauveur du climat

    Le projet européen CARBCOMN, lancé en 2024 et financé à hauteur d’environ six millions d’euros dans le cadre d’Horizon Europe, adopte une approche radicale. Au lieu d’utiliser davantage de matériaux, les chercheurs optimisent la forme. Le principe s’appelle « compression dominant structures » : les éléments de construction en béton sont conçus de telle sorte qu’ils soient presque exclusivement soumis à la compression, à l’instar des arches des ponts historiques en pierre. Le béton résiste bien à la compression, mais à peine aux forces de traction. Si l’on utilise ce principe de manière conséquente, on a besoin de moins de matériau et de moins d’armatures.

    Imprimé, pas coulé
    La fabrication numérique rend possible des formes impensables avec un coffrage traditionnel. Le robot imprime le béton couche par couche et laisse des cavités là où aucun renforcement n’est nécessaire, directement contrôlé par le modèle numérique. Cela permet non seulement d’économiser du matériau, mais aussi de réduire la charge sismique proportionnellement à la perte de poids. Dans les régions à risque sismique, c’est un avantage décisif.

    Pas de ciment, pas de problème
    Le béton du projet CARBCOMN ne contient pas de ciment. Le liant utilisé est le laitier d’acier, un sous-produit de l’industrie sidérurgique. Après l’impression, les éléments de construction sont placés dans une chambre dans laquelle du CO₂ est injecté. La réaction avec le mélange de laitier durcit le béton et lie durablement le gaz à effet de serre. Il en résulte un matériau de construction au bilan CO₂ négatif, composé exclusivement de déchets industriels.

    Métal à mémoire
    Ce béton ne se passe pas tout à fait d’armature, mais il utilise une spécialité de l’Empa depuis une vingtaine d’années, les alliages à mémoire de forme à base de fer (Fe-SMA). Ces barres métalliques pré-étirées se contractent au lieu de se dilater lorsqu’elles sont chauffées, ce qui permet de précontraindre ultérieurement l’élément de construction. Elles ne sont utilisées qu’après l’impression, ne perturbent pas le processus automatisé et peuvent être séparées ultérieurement du béton. Le spin-off de l’Empa re-fer apporte cette technologie directement au consortium.

    Construit pour être démonté
    Ce qui est construit doit aussi pouvoir être démonté. Les différents modules en béton sont conçus comme des blocs discrets qui peuvent être détachés, transportés et réassemblés ailleurs. Zaha Hadid Architects et Mario Cucinella Architects développent, en collaboration avec les équipes d’ingénieurs, des structures librement formées qui expriment architecturalement ce principe de circulation. D’ici 2028, un prototype réel devrait prouver que la construction en béton peut aussi ressembler à cela.

  • Construire une maison à partir de déchets plastiques

    Construire une maison à partir de déchets plastiques

    La bouteille en PET d’aujourd’hui pourrait demain faire partie d’une poutre de plancher, en tant qu’élément porteur. Au Massachusetts Institute of Technology, une équipe de recherche étudie comment le plastique recyclé peut être transformé en éléments de construction solides par impression 3D à grande échelle. L’accent est mis sur un système de poutres qui a été spécialement développé et testé pour une utilisation dans la construction de logements.

    Colombage en plastique au lieu du bois
    Les nouvelles poutres semblent familières au premier coup d’œil, car elles s’inspirent de la géométrie des colombages classiques en bois. Un cadre avec des entretoises diagonales absorbe et répartit les forces, une méthode de construction éprouvée depuis des décennies. Ce qui est nouveau, c’est le matériau et la fabrication. L’impression est réalisée avec un composite de PET recyclé et de fibres de verre, qui assure la rigidité et stabilise le comportement d’impression. Chaque poutre mesure environ 2,4 m de long, environ 30 cm de haut et un peu plus de 2,5 cm de large, pour un poids de seulement 6 kg environ, soit une masse nettement inférieure à celle d’une poutre en bois comparable. Le temps de fabrication est court, moins de 13 minutes par élément suffisent pour l’impression.

    Test de résistance dans des conditions pratiques
    Pour tester l’aptitude à l’utilisation quotidienne, l’équipe a monté quatre poutres en parallèle et les a vissées à un panneau en matériau dérivé du bois pour former un cadre de sol d’environ 1,2 m sur 2,4 m, une dimension modulaire courante aux États-Unis. La surface a ensuite été progressivement chargée avec des sacs de sable et des poids en béton, tandis que la flexion était mesurée en continu. Jusqu’à une charge d’environ 140 kg, la déformation est restée bien en deçà des valeurs limites autorisées par les réglementations américaines en matière de construction. Ce n’est qu’à partir d’une charge totale de plus de 1 800 kg que la construction a lâché, que les poutres se sont pliées et se sont rompues. Cela indique que la rigidité est en principe suffisante pour répondre aux exigences pertinentes en matière de construction résidentielle.

    Léger, modulaire, montage rapide
    Outre la capacité de charge, le faible poids est un avantage décisif du système. Les poutres en plastique peuvent être transportées à l’aide d’un pick-up, ce qui simplifie la logistique et la manipulation sur le chantier. Le montage suit le principe des cadres en bois classiques. Les éléments sont vissés sur place et assemblés pour former un squelette porteur. En perspective, le concept vise des cadres de maison modulaires, dans lesquels le sol, les murs et le toit sont constitués d’éléments imprimés standardisés. Cette approche est particulièrement intéressante pour les régions où le bois est rare ou cher.

    Des déchets plastiques comme matière première pour un milliard de maisons
    L’énorme demande mondiale de logements est à l’origine du projet. AJ Perez, de la MIT School of Engineering, indique qu’un milliard de nouvelles maisons seront nécessaires d’ici 2050. Un besoin qui ne peut guère être couvert par le bois seul, sans défricher de gigantesques surfaces forestières. Au lieu de cela, les flux de déchets existants doivent être utilisés. Les plastiques à usage unique comme les bouteilles ou les emballages alimentaires auront une seconde vie en tant que produits de construction. L’objectif est de créer des éléments de construction plus légers, plus durables et plus résistants que les alternatives conventionnelles.

    Coûts, normes, comportement à long terme
    Malgré les résultats prometteurs, la technologie n’en est qu’à ses débuts. Les coûts réels à l’échelle industrielle, l’adaptation des normes et des processus d’autorisation ainsi que le comportement à long terme des éléments de construction sous l’effet des intempéries, des rayons UV et des charges variables ne sont pas encore clairs. Le projet ouvre néanmoins des perspectives passionnantes pour la planification, le développement et l’industrie du bâtiment. les structures porteuses imprimées en 3D à partir de plastique recyclé pourraient changer le mix de matériaux dans la construction de bâtiments. À condition que la rentabilité et la durabilité puissent être démontrées de manière convaincante.

  • Penser circulairement, réimprimer le bois

    Penser circulairement, réimprimer le bois

    Des directives plus strictes concernant l’utilisation énergétique du bois usagé ont pour conséquence que de grandes quantités de déchets de bois ne peuvent plus être simplement brûlées, mais restent utilisables comme matériau. Le département « Experimentelles und Digitales Entwerfen und Konstruieren » (conception et construction expérimentales et numériques) de l’université de Kassel développe, en collaboration avec Buro Happold, un procédé d’impression 3D qui transforme les particules de bois résiduel en éléments de mur porteurs. Le projet est soutenu dans le cadre du programme « Zukunft Bau » de l’Institut fédéral de recherche sur la construction, les villes et l’espace.

    l’accent est mis sur un matériau d’impression biosourcé composé de particules de bois usagé broyées, provenant principalement de flux de matières secondaires de l’industrie du bois, c’est-à-dire de bois post-consommation. Des partenaires industriels préparent le matériau et le mélangent à des liants biogènes pour obtenir une masse pâteuse qui peut être extrudée par des robots.

    composants légers issus de l’imprimante 3D
    Le résultat se distingue clairement de l’impression 3D en béton connue. La masse de particules de bois et de liant est appliquée par couches à l’échelle 1:1 et forme des éléments de construction légers mais solides. Des structures murales planes sont possibles, tout comme des géométries librement courbées, qui peuvent être adaptées avec précision sur le plan constructif et architectural.

    la phase actuelle du projet Rafa 2.0 s’étend sur 18 mois et se base sur le projet précédent Rafa, dans le cadre duquel les chercheurs ont étudié de manière fondamentale l’aptitude des particules de bois usagé à la fabrication additive. Les formules des matériaux sont maintenant affinées, le processus d’extrusion optimisé et les éléments de construction testés dans des conditions de laboratoire, avec pour objectif un processus de fabrication numérique de bout en bout jusqu’au prototype à l’échelle réelle.

    portant, résistant au feu et circulaire
    Pour que le concept soit viable dans la pratique, les éléments imprimés doivent faire plus que simplement montrer leur forme. Il faut une capacité portante, une rigidité et un comportement au feu qui correspondent aux exigences de l’aménagement intérieur. Les partenaires du projet voient un premier champ d’application dans les systèmes de cloisons modulaires qui peuvent être facilement montés, démontés et réutilisés ailleurs.

    ce principe s’inscrit dans les approches circulaires de la construction, dans lesquelles les éléments de construction ne sont pas éliminés à la fin de leur cycle de vie, mais transférés vers de nouvelles utilisations. Les éléments de construction peuvent être déconstruits sans être triés, car on renonce aux composants contenant des substances nocives. Une condition préalable pour des cycles de matériaux fermés dans la construction en bois.

    la planification numérique, une technologie clé
    La planification numérique joue un rôle central. Buro Happold est responsable de la conception informatique et de la planification de la structure et utilise des simulations pour prévoir le comportement structurel des éléments de construction. Les géométries sont optimisées de manière à ce que le matériau ne soit utilisé que là où il est nécessaire d’un point de vue statique – l’efficacité des ressources devient une tâche de conception.

    « Nous faisons des déchets une opportunité, le bois récupéré devient des éléments de construction performants grâce au design numérique et à la fabrication additive », explique Shibo Ren de Buro Happold pour décrire l’approche. Fini la consommation linéaire, place à une pratique de construction circulaire, basée sur les données, qui associe étroitement la robotique, l’ingénierie et la conception.

    perspectives pour la pratique
    À court terme, le procédé vise à utiliser moins de matériaux et à réduire les émissions par rapport aux technologies d’impression 3D basées sur le béton. A long terme, il pourrait ouvrir de nouveaux marchés pour les constructions additives biosourcées. En particulier là où la légèreté, la déconstruction et la liberté architecturale sont requises.

    la mise à l’échelle, les normes et l’acceptation dans la pratique de la construction détermineront si l’approche s’impose économiquement et à quelle vitesse. D’un point de vue technique, le projet montre déjà que la construction circulaire ne commence pas seulement par le recyclage, mais aussi par la conception. C’est là que les matériaux, les processus et les cycles de vie sont repensés.

  • Modernisation et mobilité des bâtiments : pourquoi nous devons nous appuyer sur l’infrastructure existante ?

    Modernisation et mobilité des bâtiments : pourquoi nous devons nous appuyer sur l’infrastructure existante ?

    Cela est particulièrement évident pour les ascenseurs et escaliers roulants vieillissants. Environ 10 millions de ces installations sont en service dans le monde, la plupart dans des centres urbains densément peuplés. Ils sont plus vulnérables aux pannes et aux risques de sécurité. Souvent, les ascenseurs vieillissants limitent également la liberté de mouvement des personnes handicapées, par exemple à cause de portes battantes difficiles à ouvrir.

    La modernisation n’est pas seulement une question de sécurité ou de confort. Elle est également l’un des instruments les plus efficaces pour réduire les émissions. Le secteur de la construction est déjà responsable d’environ 40 % des émissions de CO₂ dans le monde, un chiffre qui pourrait doubler en 25 ans si rien n’est fait. La Commission européenne estime que 85 à 95 % des bâtiments qui existeront en 2050 sont déjà en place aujourd’hui. Le remplacement de ces bâtiments n’est pas une option. La clé de la réduction des émissions de CO₂ n’est donc pas la construction de nouveaux bâtiments, mais la mise à niveau des systèmes plus anciens, mais qui fonctionnent encore.

    Pour tous ceux qui veulent garder leurs bâtiments et leurs villes vivants, la modernisation est un investissement nécessaire dans la résilience, la durabilité et le bien-être général. Aujourd’hui, des systèmes en réseau et pilotés par des données peuvent détecter l’usure, prédire les besoins de maintenance et prolonger la durée de vie des installations – rendant ainsi les villes non seulement plus sûres, mais aussi plus intelligentes et plus écologiques.

    Pour de nombreux propriétaires de bâtiments, la modernisation reste un défi. Des coûts d’investissement élevés, de longs temps d’arrêt et l’incertitude de savoir par où commencer sont des préoccupations fréquentes. Souvent, une modernisation partielle s’avère être un juste milieu raisonnable. Elle combine les avantages des nouvelles technologies avec la réutilisation de composants intacts et réduit ainsi considérablement les coûts et les interruptions de fonctionnement – sans avoir à supporter les efforts et les temps d’arrêt d’une rénovation complète. Dans le domaine des ascenseurs, cela permet d’économiser jusqu’à 90 % de CO₂ par rapport à un remplacement complet.

    On ne peut pas redessiner nos villes, mais on peut les faire évoluer. En modernisant les systèmes de mobilité qui transportent des millions de personnes chaque jour, nous créons des environnements urbains plus sûrs, plus inclusifs et plus respectueux du climat – et prêts à relever les défis des prochaines décennies.

  • La deep-tech suisse au CES 2026

    La deep-tech suisse au CES 2026

    BTRY présente une nouvelle catégorie de batteries lithium-ion à l’état solide ultrafines, conçues pour des applications présentant des exigences extrêmes en termes de hauteur, de sécurité et de vitesse de charge. Les cellules sont disponibles à partir d’une épaisseur d’environ 0,1 millimètre, peuvent être entièrement rechargées en une minute environ et fonctionnent de manière stable même à des températures allant jusqu’à environ 150 degrés Celsius.

    Grâce à l’architecture All Solid State, elles ne nécessitent pas d’électrolyte liquide, ce qui réduit le risque d’incendie et permet une charge très rapide sans condensateurs tampons supplémentaires. Les marchés cibles sont les petits appareils en réseau tels que les étiquettes intelligentes, les capteurs sans fil, les wearables et les applications médico-techniques, pour lesquels les batteries conventionnelles sont souvent trop volumineuses ou trop lentes.

    Refroidissement silencieux pour ordinateurs haute performance
    Ionic Wind présente au CES un Lenovo ThinkPad T14 qui n’est pas refroidi par un ventilateur, mais par une technologie de vent ionique à l’état solide. Au lieu de ventilateurs mécaniques, des champs électriques génèrent un flux d’air dirigé qui évacue la chaleur, sans pièces mobiles et pratiquement sans bruit.

    Cette technologie fait de l’air un paramètre de conception contrôlable électriquement et ouvre des espaces de conception pour les ordinateurs portables, les appareils Edge-AI et l’électronique compacte, dans lesquels les ventilateurs classiques atteignent leurs limites. Outre la réduction du bruit, Ionic Wind promet une plus grande fiabilité, car les composants mécaniques sensibles à l’usure sont supprimés.

    Cellules solaires imprimées en pérovskite
    Perovskia Solar poursuit sa présence au CES et présente des cellules solaires imprimées par jet d’encre à base de matériaux pérovskite. Ces cellules peuvent être produites sur mesure et intégrées dans une multitude d’appareils et de capteurs électroniques – par exemple dans des petits appareils, des wearables ou des capteurs IoT autonomes.

    Les cellules solaires en pérovskite se distinguent par un rendement élevé, des coûts de fabrication réduits et une grande liberté de conception. L’entreprise démontre comment la production d’énergie peut être intégrée directement dans les surfaces des appareils, ce qui soulage les batteries et permet de nouvelles applications autonomes en énergie.

    Importance pour l’Empa et la Suisse en tant que site de production de matériel informatique
    La présence commune de BTRY, Ionic Wind et Perovskia Solar au CES montre que l’Empa ne se contente pas de faire de la recherche fondamentale, mais qu’il produit de plus en plus de start-up deep-tech qui évoluent sur les marchés mondiaux. Les projets s’adressent à des domaines dans lesquels les améliorations incrémentales atteignent leurs limites, comme la technologie des batteries, le refroidissement électronique et le photovoltaïque.

    L’Empa et la Suisse se profilent ainsi comme un site pour les innovations matérielles qui débouchent directement sur des applications industrielles. Les start-up associent l’excellence scientifique à la visibilité internationale, à la validation par les clients et aux ambitions de croissance globale, déplaçant ainsi le centre de gravité de la « recherche en laboratoire » vers les « produits sur la scène mondiale ».

  • Une méga-fusion qui donne le ton

    Une méga-fusion qui donne le ton

    Glencore et Rio Tinto ont confirmé être en pourparlers préliminaires sur une éventuelle combinaison de « certaines ou de toutes » leurs activités. Le marché considère comme probable un accord « all share », structuré sous forme de « court-sanctioned scheme of arrangement », dans lequel Rio Tinto reprendrait Glencore dans son intégralité

    Selon le droit britannique des OPA, Rio Tinto a jusqu’au 5 février 2026, à 17 heures, heure de Londres, pour publier une « firm intention to make an offer » ou pour mettre fin aux discussions. Il s’agit du délai classique « put up or shut up ». Les deux entreprises soulignent expressément qu’il n’y a aucune certitude qu’une offre formelle ou même qu’un accord soit conclu

    Structure possible de l’accord et logique stratégique
    On discute d’une méga-fusion avec une valeur d’entreprise combinée nettement supérieure à 200 milliards de dollars US. Elle créerait l’un des plus grands groupes miniers et de matières premières au monde avec plus de 200 000 collaborateurs. L’éventail va d’une acquisition totale à des transactions partielles, par exemple en se concentrant sur les mines de cuivre de Glencore et d’autres métaux de la transition énergétique

    Les activités charbonnières de Glencore et son vaste portefeuille de négoce constituent le point crucial. Rio Tinto s’est retiré du charbon et ne devrait pas être très intéressé par un retour durable. Les scénarios vont d’une reprise temporaire suivie d’une scission, en passant par des spin-offs, jusqu’à un accord dans lequel seuls des actifs sélectionnés, comme le cuivre, sont intégrés à Rio Tinto

    Le cuivre comme moteur
    Stratégiquement, il s’agit d’accéder à des matières premières pour la décarbonisation et la numérisation. Les deux groupes disposent d’importantes réserves de cuivre. Ensemble, ils deviendraient un fournisseur dominant d’un métal indispensable à l’extension des réseaux, à l’e-mobilité, aux énergies renouvelables et aux centres de calcul à forte consommation d’énergie

    Les analystes indiquent que la demande en cuivre pourrait augmenter d’environ 50 pour cent d’ici 2040, alors que l’offre est parfois à la traîne. Un environnement qui récompense la taille, la force du capital et la profondeur des pipelines. Une fusion permettrait de poursuivre la consolidation dans le secteur minier mondial et de renforcer le pouvoir de marché de quelques poids lourds

    Importance pour Zoug et la place minière suisse
    Glencore, dont le siège est à Baar, est l’un des principaux groupes de matières premières et contribuables de Suisse, avec environ 1000 collaborateurs travaillant dans la région de Zoug. En cas de cession d’actions, le groupe serait probablement intégré dans une structure globale Rio-Tinto, mais les détails concernant le siège, la cotation, la gouvernance et les fonctions à Zoug ne sont pas encore définis

  • Une participation majoritaire stimule la croissance sur le marché péruvien

    Une participation majoritaire stimule la croissance sur le marché péruvien

    L’entreprise zougoise de matériaux de construction Holcim a annoncé l’acquisition d’une participation majoritaire dans l’entreprise péruvienne de matériaux de construction CementosPacasmayobe. Avec cette transaction, Holcim renforce sa présence sur le marché en pleine croissance d’Amérique latine et poursuit sa NextGen Growth Strategy 2030, est-il indiqué dans le communiqué.

    Cementos Pacasmayo prévoit un chiffre d’affaires net de 630 millions de dollars en 2025 et une marge EBITDA de 28 pour cent. Le volume de la transaction de 1,5 milliard de dollars correspond ainsi à 8,8 fois l’EBITDA prévu pour 2025. L’acquisition devrait avoir un impact positif sur le bénéfice par action (BPA) et le flux de trésorerie disponible la première année, puis sur le retour sur investissement (ROIC) la troisième année.

    « L’acquisition synergique de Cementos Pacasmayo est conforme à notre stratégie ‘NextGen Growth 2030’, qui vise à accélérer la croissance dans la région attrayante de l’Amérique latine », a déclaré Miljan Gutovic, CEO de Holcim, cité dans le communiqué. « C’est l’occasion de perpétuer l’héritage exceptionnel de Cementos Pacasmayo, fondé sur une forte culture de la performance, un profond engagement envers ses collaborateurs et une marque très respectée au Pérou. L’entreprise est très génératrice de trésorerie et dispose d’un portefeuille complémentaire de matériaux et de solutions de construction. Je me réjouis d’accueillir les 2000 employés de Pacasmayo chez Holcim et de poursuivre notre croissance ensemble »

    Les quelque 300 points de vente de Cementos Pacasmayo compléteront à l’avenir la présence de Holcim en Amérique latine. Holcim avait déjà fait son entrée sur le marché péruvien des matériaux de construction l’année dernière avec les acquisitions de Comacsa, Mixercon, et de Compañía Minera Luren.

    La transaction, qui devrait être finalisée au cours du premier semestre 2026, est conforme à l’allocation du capital de Holcim axée sur la croissance et est soumise aux autorisations réglementaires habituelles.

  • Développer le recyclage des matériaux de construction en Europe

    Développer le recyclage des matériaux de construction en Europe

    Holcim AG, dont le siège est à Zoug, veut élargir considérablement son portefeuille dans le domaine du recyclage des matériaux de construction en Europe. Selon un communiqué, l’entreprise internationale de matériaux de construction a acquis deux entreprises de démolition en Angleterre et en Allemagne et se prépare à en racheter une troisième dans le nord-ouest de la France. Ces trois entreprises recyclent jusqu’à présent 1,3 million de tonnes de déchets de construction par an.

    Parmi les nouvelles acquisitions figurent Thames Materials de l’ouest de Londres et A&S Recycling GmbH de Hanovre. Holcim n’a pas encore précisé le nom de cette dernière, qui opère dans le nord-ouest de la France. Avec Thames Materials, Holcim opère désormais dans la région de Londres. Holcim y avait déjà acquis en 2023 l’entreprise de logistique Sivyer Logistics, située dans l’est de Londres. A&S Recyling traite les matériaux de démolition dans le nord de l’Allemagne avec trois sites dans le Land allemand de Basse-Saxe. Avec l’acquisition de l’entreprise française, Holcim porte à 28 le nombre de recycleurs qu’il gère dans le pays.

    « Les acquisitions de Thames Materials, de A&S Recycling GmbH et d’une entreprise de recyclage dans le nord-ouest de la France vont renforcer notre position de leader dans le domaine de la construction circulaire et contribuer à notre objectif NextGen Growth 2030 de recycler plus de 20 millions de tonnes de matériaux de démolition de construction par an », a déclaré Milan Gutovic, CEO de Holcim, cité dans le communiqué.

  • Le béton chaud de Pompéi

    Le béton chaud de Pompéi

    Le béton romain constitue l’épine dorsale de nombreuses constructions, des installations portuaires aux aqueducs, qui ont résisté au vent, aux intempéries et aux tremblements de terre pendant plus de 2000 ans. L’équipe d’Admir Masic au MIT étudie depuis des années les raisons de la durabilité exceptionnelle de ce matériau de construction en s’appuyant sur des analyses chimiques de mortiers anciens. Dès 2023, l’équipe a formulé l’hypothèse selon laquelle les Romains n’utilisaient pas la chaux sous forme de pâte prête à l’emploi, mais la mélangeaient à sec avec des cendres volcaniques sous forme de chaux vive avant d’y ajouter de l’eau.

    Pompéi, un chantier préservé
    Les recherches les plus récentes se basent sur un site unique à Pompéi. Un chantier « gelé » par l’éruption du Vésuve en 79 après JC, avec des murs à moitié construits, des tas de matériaux et des outils. Dans des échantillons prélevés dans les tas secs prémélangés, dans des murs en construction et dans des éléments de construction finis, les chercheurs ont trouvé non seulement les fameux clastes de chaux blanche, mais aussi des fragments intacts de chaux vive dans le mélange sec. Cela suggère que la réaction d’extinction, c’est-à-dire la réaction de la chaux vive avec l’eau, n’a eu lieu qu’au moment du mélange et du durcissement effectifs du béton, et non pas au préalable, comme le montrent les descriptions classiques.

    Contradiction avec Vitruve et comment elle se résout
    Au 1er siècle av. J.-C., Vitruve a décrit dans le « De architectura » que la chaux était d’abord éteinte avec de l’eau, puis mélangée à des agrégats. La technique de mélange à chaud identifiée aujourd’hui s’en écarte en ce sens que la chaux, en tant que chaux vive, est combinée à des cendres volcaniques en phase sèche et que l’eau n’est ajoutée qu’ensuite. Les analyses isotopiques des mortiers démontrent les évolutions caractéristiques de la carbonatation qui correspondent à ce processus et se distinguent des mortiers contenant de la chaux préalablement éteinte. Plutôt que de « réfuter » complètement Vitruve, les spécialistes interprètent plutôt les découvertes comme le fait que sa description ne reflète pas tout le spectre de la pratique romaine. Des variantes régionales ou temporelles, comme le malaxage à chaud, semblent avoir été plus répandues qu’on ne l’a longtemps cru.

    Le béton auto-cicatrisant, un modèle pour demain
    Le processus de mélange à chaud produit une chaleur considérable lorsque la chaux vive et l’eau entrent en contact, ce qui emprisonne des particules de chaux réactives dans la structure du béton. Si des microfissures se forment ultérieurement, ces particules peuvent se détacher à nouveau, réagir avec l’eau qui s’infiltre et combler à nouveau les fissures. Un mécanisme d’auto-cicatrisation qui explique de manière plausible la longévité des constructions romaines. Ces nouvelles connaissances sont prises en compte dans le développement de bétons modernes et durables. L’objectif est de réduire la proportion de liants à forte teneur en CO₂, de prolonger massivement la durée de vie des ouvrages et de réduire ainsi la consommation de ressources du secteur de la construction. Tout à fait dans l’esprit d’un modèle antique que l’on commence seulement à comprendre complètement sur le plan chimique.

  • Comment l’ancien marché immobilier freine la nouvelle Chine

    Comment l’ancien marché immobilier freine la nouvelle Chine

    Pendant des années, le secteur immobilier a été le principal moteur de la croissance chinoise. Construire, vendre, construire encore. Telle était la formule simple qui a parfois soutenu jusqu’à un tiers de la performance économique. En imposant des règles plus strictes pour limiter l’endettement, les dirigeants ont mis un frein à ce modèle, déclenchant une crise insidieuse mais persistante.

    Evergrande a été le point d’inflexion visible en 2021. L’ancienne star du secteur a manqué le paiement des intérêts, est devenue une figure d’avertissement mondiale et a brusquement fait comprendre à quel point le modèle de croissance était vulnérable. Depuis lors, des promoteurs comme Country Garden et maintenant Vanke, un groupe longtemps considéré comme stable, sont sous pression. C’est le signe que le secteur immobilier n’a pas encore touché le fond.

    Déflation, choc patrimonial et ménages inquiets
    La crise immobilière ronge profondément l’économie réelle. L’immobilier résidentiel est le principal réservoir de richesse des ménages chinois. Lorsque les prix chutent en série, le sentiment de sécurité s’érode. Ceux qui considèrent leur propre appartement comme une prévoyance vieillesse deviennent réticents à consommer, à investir et à prendre de grandes décisions dans la vie.

    En conséquence, la consommation intérieure est faible. La croissance du commerce de détail est nettement inférieure aux taux précédents et la conjoncture est confrontée à des pressions déflationnistes persistantes. La baisse ou la stagnation des prix peut sembler attrayante à court terme, mais elle augmente le poids réel de la dette et prolonge le processus d’assainissement du système immobilier et financier.

    Les provinces dans l’ombre de la dette
    La situation des gouvernements locaux est particulièrement délicate. Les provinces et les villes ont accumulé une dette colossale en vendant des terrains à des promoteurs et à des sociétés de financement hors bilan. Les ventes de terres ont été le principal poste de recettes, mais elles n’ont jamais suffi à soutenir durablement le boom de la construction et les programmes d’infrastructure financés à crédit. Maintenant que les ventes s’effondrent, les dettes cachées apparaissent au grand jour.

    De nombreuses régions sont soumises à une diète forcée et silencieuse. Les investissements sont reportés, les dépenses réduites, les nouvelles infrastructures retardées. Avec des conséquences directes sur la croissance, l’emploi et les entreprises locales. La crise est donc moins un crash bruyant qu’une pression lente qui affaiblit le système pendant des années et réduit les marges de manœuvre.

    L’ancienne économie tirée par l’immobilier rencontre la nouvelle puissance technologique
    Parallèlement, la Chine se met en scène comme une superpuissance high-tech. Les constructeurs de voitures électriques, les entreprises d’intelligence artificielle et les groupes Internet qui se réinventent représentent la « nouvelle Chine ». La politique mise sur une stratégie technologique à long terme axée sur l’électromobilité, les semi-conducteurs, l’IA, les énergies renouvelables et la robotique.

    Mais cette nouvelle économie repose sur des fondations issues de l’ancienne structure économique tirée par l’immobilier. Sans une demande intérieure stable, des canaux de crédit fiables et la confiance des ménages, le secteur de la tech ne peut pas non plus déployer pleinement sa dynamique. La voie du succès ne passe donc pas par un démantèlement ordonné du secteur immobilier, mais à travers lui.

    Des objectifs de croissance en boomerang
    Pékin maintient des objectifs de croissance ambitieux. L’objectif d’ »environ 5% » est réalisable, car l’État et les entreprises d’État prennent des contre-mesures à de nombreux endroits. Pour les cadres locaux conscients, le signal reste clair : les chiffres doivent être corrects, au besoin avec d’autres projets qui ne portent guère de fruits sur le plan économique.

    Il en résulte de nouveaux projets d’infrastructure et de construction qui soutiennent certes le PIB à court terme, mais ne résolvent pas les problèmes structurels. Au contraire, ils prolongent le cycle de la dette. Il en résulte une tension entre le récit officiel de la croissance et le besoin réel de deleveraging dans le complexe immobilier et la dette locale.

    Ce qui est en jeu jusqu’en 2026
    Les années à venir détermineront si la Chine parviendra à passer d’un modèle basé sur l’endettement et l’immobilier à une trajectoire de croissance basée sur l’innovation. Si le pays parvient à maîtriser la contraction du secteur immobilier tout en renforçant la consommation, la productivité et les secteurs d’avenir, il pourra rester solide malgré les creux. Si ce numéro d’équilibriste échoue, nous risquons d’assister à un scénario de croissance durablement faible, avec des poussées déflationnistes récurrentes et une méfiance croissante des investisseurs.

    La crise immobilière n’est pas un problème marginal, mais le test central de la capacité de la Chine à corriger sa trajectoire économique. Il sera décisif de savoir si les dirigeants politiques et l’administration trouveront le courage de relativiser les objectifs de croissance à court terme en faveur d’un modèle plus viable, moins axé sur l’immobilier, et donc de ne pas laisser l’ancienne Chine écraser la nouvelle.

  • Tous les bâtiments du monde en modèle 3D

    Tous les bâtiments du monde en modèle 3D

    Le GlobalBuildingAtlas comprend environ 2,75 milliards de modèles numériques de bâtiments, ce qui en fait la plus grande collection de données spatiales explicites sur la construction à ce jour. Il couvre tous les bâtiments pour lesquels des images satellites appropriées sont disponibles en 2019. Les modèles 3D ont une résolution spatiale de 3×3 mètres, ce qui est environ 30 fois plus fin que les ensembles de données globales précédents. L’atlas a été développé par une équipe dirigée par le professeur Xiaoxiang Zhu, titulaire de la chaire de science des données dans l’observation de la Terre à la TUM, qui combine la télédétection, l’intelligence artificielle et la recherche urbaine axée sur les données dans une approche globale

    Modèles 3D détaillés et couverture mondiale
    Sur les 2,75 milliards d’entrées, il existe des modèles LoD1-3D standardisés pour environ 2,68 milliards d’entre elles, qui représentent la forme de base et la hauteur des bâtiments dans une géométrie simplifiée. Cela permet de calculer les volumes, d’analyser les structures urbaines et de comparer les modèles d’urbanisation dans le monde entier. La couverture systématique de régions jusqu’alors sous-représentées, telles que l’Afrique, l’Amérique du Sud et les zones rurales, est particulièrement importante car elles sont désormais couvertes avec la même précision que les métropoles denses

    Outil pour la planification, le climat et le risque
    Les données permettent d’étudier les dynamiques de croissance dans les villes à croissance rapide, d’identifier les quartiers à forte densité où l’habitat est potentiellement tendu et de déterminer plus précisément les besoins en infrastructures. Les chercheurs et les administrations peuvent ainsi développer des indicateurs qui montrent où le développement des transports, des réseaux d’énergie et d’eau, des logements supplémentaires ou des mesures d’adaptation au climat sont particulièrement urgents. Parallèlement, le GlobalBuildingAtlas crée un système de référence uniforme à l’échelle mondiale qui permet d’effectuer des analyses sur l’urbanisation, la consommation d’énergie et les risques de catastrophes sur la base de données comparables.

  • Construire en circulaire avec des roseaux

    Construire en circulaire avec des roseaux

    La maison de Marina Rosa et Jacobus van Hoorne, conçue par Gilbert Berthold, architecte et assistant scientifique à la HESB, se distingue délibérément dans un lotissement de maisons individuelles au bord du lac de Neusiedl. Il combine une construction en bois conséquente avec un toit de roseaux marquant et mise ainsi sur des matières premières locales et renouvelables avec une faible empreinte écologique. Les nombreuses récompenses reçues, du prix de la maîtrise d’ouvrage de la Zentralvereinigung österreichischer Architektinnen au prix d’architecture du Burgenland en passant par le prix du nouveau venu « Häuser des Jahres », soulignent le caractère exemplaire du projet.

    Le roseau, un matériau de construction très performant
    Jacobus van Hoorne, à l’origine physicien des particules au CERN, a repris l’entreprise de son père, coupeur de roseaux et couvreur de roseaux, et l’a transformée en laboratoire d’innovation. En collaboration avec Berthold, il a mis au point une structure de toit qui répond à des exigences strictes en matière de protection contre l’incendie et qui a été approuvée par les autorités à la suite d’essais d’incendie en conditions réelles. Une étape importante pour le roseau dans les nouvelles constructions, même dans les zones densément peuplées. Les pans de toiture légèrement incurvés suivent la logique du matériau. Chaque degré d’inclinaison supplémentaire prolonge la durée de vie du toit, la construction rend visibles et lisibles les qualités du matériau naturel.

    Géométrie, matériau et espace comme une unité
    Le plan de la maison suit un parcours en forme de S, résultant de la rotation de l’espace de vie central. Le cœur est un atrium de deux étages, inondé de lumière, qui s’ouvre sur le jardin et est étroitement lié à l’espace extérieur par des terrasses. Des espaces fonctionnels organisés de manière compacte créent une marge de manœuvre pour de vastes zones de détente. L’interaction entre le toit en roseaux et la façade en chêne naturel relie le corps du bâtiment au paysage. Le toit devient l’élément déterminant de la conception et une interprétation contemporaine de l’artisanat traditionnel.

    Laboratoire réel pour les matériaux biosourcés
    Pour Gilbert Berthold, le projet a marqué le début de son indépendance et a également constitué un terrain d’essai réel pour la construction durable. La maison sert aujourd’hui à la fois de lieu de vie, d’objet d’étude et de salle d’exposition. Elle fournit des données sur l’efficacité énergétique, le climat intérieur et le comportement à long terme des matériaux de construction biosourcés. Dans le contexte de la HESB, elle s’intègre dans la recherche sur les matériaux à base de plantes tels que la paille, le lin, le chanvre ou le mycélium et montre que le roseau peut exister non seulement comme matériau isolant, mais aussi dans un rôle architectural principal.

    Symbole d’une culture de la construction régénérative
    Le projet illustre comment la construction circulaire peut être mise en œuvre dès aujourd’hui avec des ressources régionales. Il montre aux étudiants et aux professionnels que l’architecture régénérative n’est pas une vision d’avenir, mais une réalité construite. Avec le roseau comme symbole fort d’une culture de la construction qui repense la nature, la technique et la société.

  • Développer les marchés de croissance grâce à la production régionale

    Développer les marchés de croissance grâce à la production régionale

    Sika a l’intention de poursuivre sa croissance au Moyen-Orient. Dans cette optique, l’entreprise de spécialités chimiques pour le bâtiment et l’industrie a racheté la société saoudienne Gulf Seal. Elle fabrique des membranes d’étanchéité bitumineuses dans la capitale Riyad. Selon un communiqué, cette offre complète de manière optimale les technologies d’étanchéité de Sika déjà disponibles dans la région.

    Selon la société saoudienne Gulf Seal, fondée il y a 20 ans, elle travaille avec la « technologie française la plus moderne », achetée à sa société sœur Axter France. Gulf Seal serait ainsi le seul fabricant certifié de membranes bitumineuses étanches au Moyen-Orient, avec une certification CE européenne.

    Sika espère que l’usine de production de Gulf Seal et les canaux d’exportation établis dans les pays du Conseil de coopération du Golfe (CCG) lui permettront de renforcer considérablement sa position sur ces marchés en croissance. En Arabie saoudite même, cette acquisition renforce les capacités de Sika à réaliser des projets de construction importants dans le cadre de la Vision 2030 de l’Arabie saoudite, de la Coupe du Monde de la FIFA 2034 et de l’urbanisation croissante.

    « La position établie sur le marché et les capacités de production locales de Gulf Seal, associées à la large gamme de produits et à l’expertise mondiale de Sika, offrent des opportunités passionnantes pour la poursuite de la croissance dans la région de la RCG », a déclaré Christoph Ganz, directeur régional EMEA de Sika, cité dans le communiqué. « Nous sommes impatients d’accueillir l’équipe de Gulf-Seal au sein de la famille Sika »

  • La technologie vidéo améliore la sécurité sur les chantiers

    La technologie vidéo améliore la sécurité sur les chantiers

    Zurich North America et Zurich Resilience Solutions (ZRS), le gestionnaire de risques de l’assureur Zurich, exigent désormais l’utilisation de la technologie Arrowsight pour tous les projets de fin de chantier assurés par Zurich dans la ville de New York. Arrowsight, basée à Katonah dans l’État de New York, se concentre sur la modification du comportement basée sur la vidéo et l’analyse de coaching pour améliorer la sécurité sur les chantiers et réduire les accidents du travail.

    Cette collaboration, annoncée dans un communiqué, fait suite à un programme pilote de trois ans dans le cadre duquel l’analyse vidéo et le coaching Arrowsight ont été appliqués à huit grands projets de construction ainsi qu’à un projet complexe de génie civil. Par rapport à douze projets de construction sur lesquels les technologies de sécurité n’ont pas été utilisées, les travaux Arrowsight ont enregistré 50 pour cent de déclarations d’accidents du travail en moins.

    « L’amélioration de la sécurité des travailleurs tout en réduisant les risques et les fraudes potentielles grâce à notre équipement vidéo à faible coût est une étape importante pour le secteur. Le fait que la fréquence et le coût des sinistres aient diminué à ce point est le résultat direct du respect des règles de sécurité au travail – de 70 pour cent avant l’introduction d’Arrowsight à 97 à 100 pour cent après l’utilisation de notre technologie », a déclaré Adam Aronson, fondateur et PDG d’Arrowsight, cité dans le communiqué. « Depuis 2024, nous travaillons avec Zurich et Arrowsight sur un projet majeur à New York et nous sommes très satisfaits du faible nombre de sinistres que nous avons enregistrés jusqu’à présent », a déclaré Deborah Broom, vice-présidente de la gestion des risques chez Tutor Perini Corp, une entreprise de construction impliquée.

    Arrowsight sera le fournisseur exclusif de la technologie de chantier basée sur les caméras pour Zurich North America à travers les États-Unis. Zurich Resilience Solutions devient le fournisseur exclusif de services de gestion des risques pour Arrowsight.

  • Les satellites créent une nouvelle transparence

    Les satellites créent une nouvelle transparence

    La mission satellitaire CO2M marque un tournant dans la détection des gaz à effet de serre. Les deux satellites initialement prévus ont été complétés par un troisième après des simulations de l’Empa. La période de mesure globale passe ainsi de cinq jours à environ 3,5 jours. Au lieu de bandes de mesure étroites, les instruments fourniront à l’avenir des cartes complètes avec une résolution de deux kilomètres. Les émissions des différents pays, villes et sources industrielles seront ainsi visibles. La mission est ancrée dans le programme d’observation de la Terre Copernicus de l’UE et est développée par l’ESA et exploitée par la suite par EUMETSAT.

    Les données sur le dioxyde d’azote révèlent des inexactitudes
    Parallèlement, le projet CORSO développe un ensemble de données globales sur les grands émetteurs tels que les centrales électriques, les cimenteries et les aciéries. Les comparaisons entre les bases de données et les mesures satellites TROPOMI révèlent des écarts significatifs. Des installations qui n’existent pas, des entrées manquantes et des hypothèses erronées sur les combustibles. Il a été démontré que, dans de nombreux cas, les centrales électriques à double flux utilisent principalement le gaz plutôt que le pétrole, ce qui entraîne des niveaux d’oxyde d’azote plus faibles. Ces résultats constituent la base pour cartographier le CO2 avec une précision comparable à l’avenir.

    Perspective du progrès climatique global
    Les nouveaux instruments de mesure élargissent les possibilités de surveillance précise et continue des émissions d’origine humaine. Aujourd’hui déjà, les polluants atmosphériques tels que les oxydes d’azote peuvent être quantifiés de manière fiable. Avec les satellites CO2M, cette capacité sera étendue aux gaz à effet de serre. Il en résultera une vue de l’espace basée sur les données, qui montrera en détail si les objectifs climatiques internationaux sont effectivement atteints.

  • Point culminant de l’ingénierie et vision architecturale à Barcelone

    Point culminant de l’ingénierie et vision architecturale à Barcelone

    La tour centrale du Christ, qui fait partie d’un ensemble de 18 tours, marque la dernière étape d’un processus de construction qui a commencé en 1882 et qui a maintenant atteint une nouvelle dimension. D’ici la mi-2026, la tour atteindra sa hauteur finale de 172,5 mètres, juste à temps pour le centenaire de la mort d’Antoni Gaudí. La flèche, faite d’acier, de verre et d’éléments en céramique, a été préfabriquée en segments en Bavière et installée à l’aide de grues spéciales. Le choix des matériaux et la fabrication répondent à des exigences strictes en matière de stabilité au vent, de résistance aux UV et aux températures.

    Construire en générations
    Le déroulement de la construction de la Sagrada Família peut être lu comme un miroir de l’évolution technologique. Du XIXe siècle artisanal à la phase de reconstruction après la guerre civile, en passant par la conception assistée par ordinateur et la fabrication numérique d’aujourd’hui. Le temple est à la fois un monument et un laboratoire de recherche. Depuis les années 1980, les modèles paramétriques, les simulations 3D et le travail robotisé de la pierre ont révolutionné l’exécution. L’achèvement final est prévu pour 2033, sous réserve de défis de logistique de construction.

    Statique sans contreforts
    Le concept de structure de Gaudí renonce délibérément aux arcs-boutants gothiques classiques. Des colonnes inclinées porteuses, dont les lignes suivent les courbes de force des structures naturelles, ainsi que des géométries hyperboliques et paraboliques, dirigent efficacement les charges vers le sol. Le tout est complété par une surveillance en temps réel de la structure, une analyse des fréquences propres et des procédures de construction adaptatives. L’église démontre comment le biomimétisme, les mathématiques de l’ingénierie et la surveillance sensorielle permettent de maintenir la stabilité d’un projet du siècle.

    Financement sans fonds publics
    Comme par le passé, la Sagrada Família est financée par des dons et des droits d’entrée. Ce principe confère une autonomie au projet, mais a historiquement entraîné des retards dans le temps et des débats de société. Des voix critiques accompagnent encore aujourd’hui la construction. Néanmoins, la basilique est considérée comme un symbole mondial de la construction visionnaire, au-delà des modèles conventionnels de temps et de financement.

  • Plus solide que l’acier, plus léger que le bois

    Plus solide que l’acier, plus léger que le bois

    L’idée repose sur une transformation ciblée de la microstructure du bois. Le point de départ reste les principaux composants naturels. La cellulose, qui assure la résistance à la traction en tant que structure de support fibreuse, et la lignine, qui maintient les fibres ensemble en tant qu’adhésif naturel. Au cours du processus de fabrication, une partie de la lignine est éliminée chimiquement, ce qui permet de comprimer la cellulose de manière dense. Il en résulte un matériau extrêmement compact, à fibres orientées, d’une densité élevée et d’un poids relativement faible.

    Les tests montrent que Superwood est environ douze fois plus solide que le bois non traité et peut même atteindre une résistance à la traction supérieure à celle de l’acier dans certaines combinaisons. Dans le même temps, le matériau reste biodégradable et est basé sur une ressource renouvelable. Un équilibre rare entre performance et durabilité.

    Applications dans la construction
    Pour le secteur de la construction, Superwood pourrait devenir un gamechanger. Sa combinaison de légèreté, de capacité de charge et d’origine écologique le rend intéressant pour les structures porteuses, les systèmes de façade ou les éléments modulaires légers. Le matériau se travaille comme le bois, mais il présente une meilleure résistance à l’humidité et à la déformation.

    Inventwood travaille sur des projets pilotes avec des partenaires constructeurs et architectes, par exemple pour des systèmes de murs préfabriqués ou des constructions hybrides bois-béton. Les chercheurs voient également un grand potentiel dans le domaine des infrastructures, par exemple pour les ponts, les toits ou les constructions transportables.

    Sur la voie de l’exploitation industrielle
    Le chemin entre le laboratoire et la production de masse a été long. L’entreprise Inventwood qui s’en est suivie en a fait un produit commercialisable. L’évolutivité du procédé, qui peut désormais être appliqué à de grands éléments en bois, a été déterminante.

    L’entreprise voit dans Superwood une alternative durable aux matériaux à fortes émissions tels que l’acier, l’aluminium ou le béton. Sa fabrication nécessite moins d’énergie et le CO₂ capturé reste stocké dans le matériau. Superwood pourrait ainsi contribuer à la décarbonisation du secteur de la construction.

    Le bois, un matériau de haute technologie
    L’industrialisation de Superwood permet de boucler la boucle entre le matériau de construction traditionnel et la science moderne des matériaux. Le bois ordinaire devient un matériau haute performance qui se redéfinit en termes de stabilité et de durabilité.

    S’il devient disponible à plus grande échelle, ce matériau pourrait transformer radicalement la construction en bois internationale, des gratte-ciel urbains aux infrastructures modulaires. L’avenir de la construction, semble-t-il, reste le bois – mais en plus intelligent.

  • Cinq tendances en matière de mobilité font bouger le secteur immobilier

    Cinq tendances en matière de mobilité font bouger le secteur immobilier

    Le stationnement a longtemps été un sujet marginal. Aujourd’hui, il est considéré comme la clé de l’optimisation de la valeur des biens immobiliers. En effet, les espaces extérieurs, autrefois simples infrastructures, deviennent des facteurs de revenus stratégiques grâce à la technologie numérique. « Le parking n’est plus un mal nécessaire, mais un élément de la chaîne de création de valeur », explique Jakob Bodenmüller, CEO de Wemolo. Son entreprise gère plus de 3 500 sites à travers l’Europe, avec 2,5 millions de stationnements par jour, et voit un secteur se réinventer.

    1.La technologie free-flow, l’adieu à la barrière
    Les caméras remplacent les barrières avec reconnaissance des plaques d’immatriculation et permettent de gérer les parkings sans barrières physiques, sans perte de tickets et sans entretien. Les véhicules des utilisateurs sont identifiés numériquement et les utilisateurs autorisés se garent automatiquement. Cela permet de réduire les coûts d’exploitation jusqu’à 60 % tout en améliorant l’expérience client.

    Les quartiers à usage mixte sont les premiers bénéficiaires. Les commerçants, les prestataires de services et les résidents peuvent contrôler les espaces en fonction de leurs besoins, par exemple pour une durée limitée ou sur la base de quotas. Le stationnement de tiers est automatiquement détecté et sanctionné. Selon Wemolo, leur part diminue jusqu’à 85% au cours des premiers mois.

    2.Shared Parking – de nouvelles sources de revenus grâce à la coopération
    Ce qui est un supermarché le jour peut devenir un quartier résidentiel la nuit. Le parking partagé utilise des créneaux horaires libres sur des surfaces privées et les ouvre de manière contrôlée à des tiers. Les supermarchés, les immeubles de bureaux ou les centres commerciaux spécialisés réalisent ainsi des recettes supplémentaires pouvant atteindre 80 euros par place de stationnement et par mois sans investissement dans la construction.

    Pour les villes, ce modèle est une bouffée d’oxygène. Près d’un tiers du trafic en centre-ville est dû à la recherche d’une place de parking. Si le stationnement privé peut être contrôlé numériquement, le trafic peut diminuer et l’efficacité de l’espace peut augmenter. « Nous orchestrons au lieu d’ouvrir et le contrôle reste toujours à l’opérateur », souligne Dominic Winkler

    3.L’e-mobilité comme modèle commercial
    Les points de charge ne sont pas seulement une obligation réglementaire, mais un moteur de chiffre d’affaires. Ceux qui se chargent restent plus longtemps, un avantage mesurable pour le commerce. Des études montrent que chaque minute de charge supplémentaire prolonge la durée de séjour et augmente le chiffre d’affaires de plus d’un pour cent.

    En associant l’e-mobilité et le stationnement intelligent, l’infrastructure de recharge peut être gérée de manière dynamique, tarifée ou proposée comme service premium. L’intégration dans le système de gestion du stationnement réduit considérablement les efforts et renforce en même temps la performance ESG d’un bien immobilier.

    4.Parking Intelligence utilise les données comme outil de gestion
    Les données de stationnement deviennent une intelligence d’entreprise. Les indicateurs collectés automatiquement fournissent des informations sur le taux d’occupation, le temps passé dans le parking, la fréquentation des clients et les tendances saisonnières. Les gestionnaires d’installations et d’actifs peuvent s’en servir pour adapter les modèles de location, optimiser la planification du personnel ou développer des stratégies de commercialisation ciblées.

    Parking Intelligence crée pour la première fois une base de données pour les décisions d’implantation. L’espace de stationnement devient ainsi le miroir de la performance réelle des actifs, ce qui permet de le mesurer, de le comparer et de le gérer.

    5.Surveillance de l’espace par l’IA, du parking au capteur de portefeuille
    La prochaine étape de la numérisation se situe au-dessus de l’asphalte. des caméras à 360 degrés et des analyses IA surveillent les espaces extérieurs en temps réel, détectent les déchets, le vandalisme ou la neige et signalent automatiquement les tickets de service aux facility managers.

    Cela réduit considérablement les efforts de contrôle, les contrats de maintenance sont évalués objectivement et les normes peuvent être gérées de manière centralisée. C’est un avantage pour les portefeuilles de centaines de sites. Les premiers opérateurs testent déjà comment les données de surveillance peuvent être utilisées pour optimiser les sites.

    Le parking comme nouvel actif
    L’avenir de l’immobilier ne se trouve plus seulement dans les bâtiments, mais aussi en amont. L’Expo Real 2025 a montré que celui qui pense le parking de manière numérique change le modèle économique d’un bien immobilier.

    « Le défi n’est pas de connaître les tendances, mais de les mettre en œuvre », explique Bodenmüller. La gestion des parkings devient l’interface entre la mobilité, l’ESG et la création de valeur. Un marché dynamique où l’immobilisme appartient définitivement au passé.

  • Des fenêtres comme centrales électriques

    Des fenêtres comme centrales électriques

    Une solution consiste à utiliser des films spéciaux qui dirigent la lumière visible vers le bord de la vitre. Là, des bandes photovoltaïques, souvent en matériau haute performance comme le GaAs, absorbent la lumière et la convertissent en électricité. Les cellules solaires ne sont nécessaires que sur le bord, ce qui permet d’économiser des matériaux et des ressources. La transparence est préservée, la fenêtre reste transparente.

    Une équipe de recherche de l’université de Nanjing a pu développer un prototype avec des cristaux liquides cholestériques qui atteint une efficacité optique de plus de 18% et fournit des valeurs stables dans des conditions réelles. Pour une fenêtre typique de deux mètres de haut, il en résulte une forte concentration de la lumière dans la zone périphérique. Le revêtement peut être produit industriellement et convient aux grandes façades.

    Cellules tandem transparentes
    Le projet européen CitySolar présente une autre innovation. Deux couches photovoltaïques combinées (en haut halide-perovskite, en bas organique) récupèrent l’énergie de différents spectres de lumière tout en laissant passer la lumière visible. Ainsi, la luminosité de la pièce et la vue restent inchangées, la fenêtre « ressemble à une fenêtre », mais produit de l’électricité.

    Avec un rendement de 12,3% et 30% de transparence, un nouveau record a été établi pour les modules photovoltaïques transparents. La structure est adaptée aux immeubles de bureaux et d’habitation ainsi qu’aux gratte-ciel avec de grandes façades vitrées.

    Avenir et potentiel
    Les chercheurs et les partenaires industriels travaillent à des rendements encore plus élevés et à de meilleures méthodes de production. L’équilibre entre transparence et efficacité ainsi que l’intégration dans les processus de construction existants constituent des défis. Mais des projets comme ceux de ZEISS ou du consortium international CitySolar montrent clairement l’ampleur du potentiel commercial.

    Les cellules solaires transparentes et les surfaces vitrées intelligentes ouvrent la voie à des bâtiments qui couvrent partiellement leurs propres besoins en électricité. Les fenêtres en tant que centrales électriques sont à portée de main et contribueront de manière décisive à la transition énergétique dans les espaces urbains.

  • Le laboratoire d’essai de Fraunhofer ISE établit une norme pour les onduleurs

    Le laboratoire d’essai de Fraunhofer ISE établit une norme pour les onduleurs

    Avec le développement croissant des énergies renouvelables, les masses tournantes des centrales électriques classiques, qui assuraient jusqu’à présent la stabilité de la tension et de la fréquence, font défaut dans le réseau. Les onduleurs formant le réseau doivent assumer cette tâche et stabiliser le réseau de manière fiable, même dans des situations critiques telles que les changements de fréquence ou les courts-circuits. Jusqu’à présent, il n’existe cependant pas de définition uniforme ni de méthode de vérification standardisée pour ces systèmes.

    Méthode d’essai GFM Benchmark
    Dans le cadre du projet GFM Benchmark, le Fraunhofer ISE a invité les principaux fabricants à tester leurs appareils en laboratoire. Sept entreprises ont fourni des onduleurs de différentes puissances et de différents niveaux de développement. La méthode d’essai a été développée en collaboration avec les gestionnaires de réseau de transport allemands et reproduit différentes situations de réseau. Outre le fonctionnement normal, il s’agit également de situations extrêmes telles que les sauts de phase et les courts-circuits du réseau.

    Alors que de nombreux appareils réagissent de manière similaire à des exigences clairement définies, des différences significatives apparaissent encore dans des conditions plus complexes. L’équipe de l’ISE a ainsi pu fournir aux fabricants de précieuses indications sur l’optimisation et a mis en évidence le besoin de développement.

    Ouvrir la voie à la normalisation et à l’intégration du marché
    Les résultats du projet ont été directement intégrés dans le travail de normalisation européen ainsi que dans la note VDE FNN « Netzbildende Eigenschaften ». Le nouveau guide de test offre pour la première fois un cadre reconnu pour les tests pratiques et la certification des systèmes de formation de réseaux. C’est particulièrement pertinent car, à partir de 2026, un nouveau marché pour la réserve instantanée sera lancé en Allemagne, dans lequel, par exemple, le stockage par batterie avec une certification appropriée obtiendra des possibilités de revenus supplémentaires.

    Maturité du marché, meilleures pratiques et dialogue avec l’industrie
    L’analyse du marché et les données de test fournissent une base de décision solide pour les fabricants, les opérateurs de réseau, les investisseurs et les organismes de normalisation. Grâce aux mesures de certification désormais possibles, l’entrée sur le marché de nouveaux onduleurs stabilisateurs est accélérée. De plus, le Fraunhofer ISE accompagne la transposition des exigences européennes dans les réglementations nationales et soutient le secteur avec des guides de bonnes pratiques.

    Le Fraunhofer ISE a posé un jalon avec la procédure d’essai pour les onduleurs de formation de réseau. La transition énergétique en Europe devient ainsi non seulement plus sûre, mais aussi plus rapide et mesurable.

  • De nouveaux acides de silicium pourraient détruire les « produits chimiques éternels

    De nouveaux acides de silicium pourraient détruire les « produits chimiques éternels

    Les substances per- et polyfluoroalkylées, ou PFAS, sont considérées comme des « produits chimiques éternels », car elles ne se dégradent pas dans l’environnement. Leur liaison carbone-fluor très stable résiste à la lumière, à l’eau et aux micro-organismes. Les acides super Lewis récemment développés interviennent précisément à ce niveau. Ils font preuve d’une « avidité d’électrons » extrême et attaquent directement les structures résistantes des PFAS.

    Une fabrication complexe pour un impact important
    Pendant longtemps, ces composés n’étaient considérés que comme un concept théorique. Ce n’est que grâce à des méthodes innovantes telles que la protolyse que l’on a réussi à les produire de manière synthétique. Pour ce faire, des processus éprouvés de la chimie du carbone ont été appliqués au silicium. Les expériences étaient très sensibles. Elles devaient être menées sous atmosphère protectrice, car la moindre trace d’oxygène ou d’eau empêcherait les réactions de se produire.

    La mécanique quantique fournit la clé
    Pour la première fois, la force de ces molécules a été entièrement prédite par la mécanique quantique. Ces calculs ont non seulement confirmé leur extrême réactivité, mais ont également permis de comprendre précisément les mécanismes en jeu. Des méthodes spectroscopiques telles que la RMN ont validé les prédictions. La combinaison de la théorie et de l’expérience constitue ainsi une étape importante dans la recherche sur les catalyseurs.

    Des catalyseurs pour la protection de l’environnement
    Les nouveaux acides super Lewis se comportent comme des catalyseurs. Ils se modifient au cours de la réaction, mais se régénèrent et ne sont pas consommés de manière permanente. Des quantités infimes suffisent donc à rendre inoffensifs les composés PFAS hautement toxiques… Un avantage décisif par rapport aux approches précédentes.

    Avec les acides super Lewis à base de silicium, une solution réaliste au problème mondial des PFAS est pour la première fois à portée de main. Ils pourraient devenir un outil clé pour le recyclage, la chimie verte et la protection de l’environnement et de la santé.

  • Les déchets nucléaires, une ressource pour la transition énergétique

    Les déchets nucléaires, une ressource pour la transition énergétique

    L’énergie nucléaire polarise ! Alors que certains pays l’abandonnent, elle reste un pilier central de l’approvisionnement énergétique dans d’autres pays. Mais tous ont un problème en commun : les déchets radioactifs. Des milliers de tonnes de matières hautement radioactives sont déjà stockées dans le monde entier et leur conservation en toute sécurité coûte des milliards. Mais aujourd’hui, une idée qui pourrait transformer ces déchets en une matière première précieuse est mise en avant.

    Le tritium est la clé de la fusion nucléaire
    La fusion nucléaire est considérée comme un espoir pour l’avenir énergétique. Contrairement à la fission nucléaire, elle ne mise pas sur la désintégration, mais sur la fusion des noyaux atomiques. Un peu comme dans le soleil. En utilisant le deutérium et le tritium comme combustible, il est possible de produire d’énormes quantités d’énergie, pratiquement sans émissions nocives pour le climat et avec des quantités de déchets nettement inférieures. Alors que le deutérium est facilement disponible, le tritium reste extrêmement rare. Il n’en existe actuellement qu’environ 25 kilogrammes dans le monde, ce qui est trop peu pour une utilisation à grande échelle dans la production d’énergie.

    Les déchets nucléaires, source du combustible du futur
    C’est là qu’interviennent les recherches de Terence Tarnowsky au Laboratoire national de Los Alamos. Les déchets radioactifs des centrales nucléaires existantes pourraient être utilisés pour produire du tritium en quantité significative. Cela permettrait de relever deux défis en même temps. Le stockage sûr et coûteux des déchets nucléaires et la disponibilité du combustible manquant pour les futures centrales à fusion. Le prix du tritium sur le marché est actuellement d’environ 15 millions de dollars la livre, un signe clair de sa rareté et de sa valeur.

    Opportunités pour la transition énergétique
    La vision est claire. Si les déchets deviennent un combustible d’avenir, les cartes de la politique énergétique mondiale pourraient être redistribuées. Des centrales à fusion, alimentées par du tritium issu de déchets nucléaires recyclés, pourraient fournir d’énormes quantités d’énergie sans impact sur le climat et en toute sécurité. Ce serait une étape importante pour la transition énergétique, qui pourrait garantir à long terme les besoins croissants en électricité liés à la mobilité électrique, à la transition thermique et à la numérisation.

    La recherche à un tournant
    La voie vers une utilisation à grande échelle est encore ouverte. Les questions techniques, économiques et de sécurité doivent être résolues. Mais la direction prise montre comment la science et la technologie peuvent transformer des déchets apparemment anciens en opportunités pour l’avenir. Les déchets nucléaires, symbole des problèmes énergétiques non résolus, pourraient ainsi devenir un pilier de la transition énergétique.