Schlagwort: Daten

  • OST denkt KI voraus

    OST denkt KI voraus

    Künstliche Intelligenz ist an der OST mehr als ein Trend. Sie ist fester Bestandteil der Lehre und Forschung. Rektor Daniel Seelhofer betonte, dass die OST gezielt Brücken zwischen wissenschaftlicher Exzellenz und praktischer Anwendung baut. Inzwischen arbeiten über 20 Forschungsinstitute der OST mit KI, häufig gemeinsam mit Unternehmen, Verwaltungen oder dem Gesundheitswesen. Seit 2021 ist das Thema Bestandteil aller Studiengänge.

    Die Bedeutung dieser Ausrichtung wurde von der St. Galler Regierungsrätin Bettina Surber unterstrichen. Sie lobte die OST als Impulsgeberin für die Ostschweiz und sagte der Hochschule die politische Unterstützung des Kantons zu.

    Von Beton über Pflege bis Kindersprache
    In verschiedenen Kurzvorträgen und Filmen wurde gezeigt, wie breit das Anwendungsspektrum von KI an der OST ist.

    Nachhaltiger Bauen
    KI hilft, Betonmischungen mit reduziertem Zementanteil für spezifische Anforderungen zu optimieren.

    Ethik im Fokus
    Wie gelingt der faire KI-Einsatz?

    Selbstbestimmt mit Daten umgehen
    Ein digitales «Datenkonto» soll Bürgerinnen und Bürgern mehr Kontrolle über ihre Informationen geben.

    Sport und Intelligenz
    Exergames trainieren die Spielintelligenz von Eishockeyprofis unter körperlicher Belastung.

    Gesundes Essen mit digitaler Unterstützung
    Eine smarte App erstellt personalisierte Menüpläne – unter Einbezug von Allergien, Vorlieben und Gesundheitszielen.

    Landwirtschaft mit Robotern
    Agrarroboter erledigen selbstständig Pflegearbeiten wie Bewässerung oder Schädlingskontrolle.

    Pflegeberatung durch Chatbot
    In Zusammenarbeit mit der Stadt St.Gallen entstand ein digitales Assistenzsystem für betreuende Angehörige.

    Kindliche Sprache verstehen
    Eine KI unterstützt Fachpersonen beim Deuten kindlicher Ausdrucksformen.

    In zwei Podiumsdiskussionen ging es um die gesellschaftlichen Dimensionen von KI. SRF-Moderator Florian Inhauser führte durch die Gespräche. Dabei wurden Fragen nach Datenschutz, Verantwortung und Inklusion behandelt. Die Diskussion zeigte, Technologische Entwicklung allein genügt nicht. Es braucht klare ethische Leitlinien und gesellschaftlichen Dialog.

    KI als Werkzeug, nicht als Selbstzweck
    Der zweite Hochschultag der OST machte eindrücklich sichtbar, dass Künstliche Intelligenz bereits heute in vielen Lebensbereichen präsent ist – und dort echte Verbesserungen ermöglicht. Entscheidend ist, wie verantwortungsvoll sie eingesetzt wird. Die OST positioniert sich als zentrale Akteurin, um Innovation mit gesellschaftlichem Nutzen zu verbinden.

  • Schweizer Datenökosystem

    Schweizer Datenökosystem

    Daten sind eine zentrale Ressource für wirtschaftliche Entwicklung, Forschung und gesellschaftlichen Fortschritt. Um zu verhindern, dass Daten in isolierten Silos verbleiben, setzt der Bund auf ein nationales Datenökosystem. Dieses umfasst themenspezifische Datenräume, in denen Unternehmen, Hochschulen, Behörden und Organisationen sicher und kontrolliert Daten austauschen können.

    Der Bundesrat hat die Bundeskanzlei beauftragt, eine zentrale Anlaufstelle zur Koordination dieser Datenräume zu schaffen. Die Anlaufstelle Datenökosystem Schweiz, die am 15. Januar 2025 ihren Betrieb aufgenommen hat, wird von der Bundeskanzlei in Zusammenarbeit mit dem Bundesamt für Kommunikation, dem Bundesamt für Statistik und der Direktion für Völkerrecht betrieben.

    Koordination, Beratung und internationale Vernetzung
    Die Hauptaufgabe der Anlaufstelle besteht darin, Grundlagen für ein interoperables Datenökosystem zu schaffen. Dazu gehören Regelwerke, technische Standards und organisatorische Strukturen. Gleichzeitig unterstützt sie laufende Datenraumprojekte mit konzeptioneller, organisatorischer und rechtlicher Beratung.

    Ein zentrales Element ist die Vernetzung der relevanten Akteure. In sogenannten Communities of Practice können Fachleute Wissen und Erfahrungen austauschen, um die Entwicklung gemeinsamer Datenlösungen zu beschleunigen. Darüber hinaus arbeitet die Anlaufstelle mit internationalen Partnern wie dem Fraunhofer-Institut zusammen, um die Kompatibilität schweizerischer Datenräume mit europäischen und globalen Initiativen sicherzustellen.

    Daten für Wirtschaft, Forschung und Gesellschaft nutzbar machen
    Mehrere Datenraumprojekte befinden sich bereits im Aufbau, etwa in den Bereichen Gesundheit («DigiSanté»), Tourismus («Nationale Dateninfrastruktur für den Tourismus») und Landwirtschaft («agridata.ch»). Ein weiteres Beispiel ist der geplante Mobilitätsdatenraum, in dem Akteure des öffentlichen Verkehrs, der Logistik und der Behörden Mobilitätsdaten austauschen. Dies ermöglicht effizientere Verkehrssteuerung, optimierte Routenplanung für Spediteure und schnellere Reaktionszeiten für Blaulichtorganisationen.

    Mit der neuen Anlaufstelle setzt die Schweiz einen wichtigen Schritt, um das Potenzial von Daten nachhaltig zu nutzen und digitale Innovationen über Branchen- und Verwaltungsgrenzen hinweg zu fördern.

  • CBRE Schweiz Bericht über den Retail-Markt Q3 2023

    CBRE Schweiz Bericht über den Retail-Markt Q3 2023

    Die Analyse hebt die anhaltend hohen Spitzenmieten in Zürich und Genf hervor. Insbesondere erreicht die Zürcher Bahnhofstrasse mit CHF 11.000 pro Quadratmeter und Jahr den Spitzenwert, während die Genfer Rue du Rhone mit CHF 6.500 folgt. Diese Zahlen reflektieren die starke Nachfrage nach Luxus-Einzelhandelsflächen, die durch die Pandemie und deren Nachwirkungen noch verstärkt wurde.

    Leerstandsquoten und ihre Bedeutung
    Mit einer durchschnittlichen Leerstandsquote von nur 1,7% in den untersuchten Städten bestätigt die Analyse die hohe Marktnachfrage und -stabilität. Interessanterweise liegt die optimale Leerstandsquote laut der Studie bei 1,27%, während der durchschnittliche strukturelle Leerstand von 1980 bis 2022 bei etwa 1,07% lag. Dies zeigt, dass der tatsächliche Leerstand in der Schweiz tendenziell unter dem idealen Wert für eine stabile Preisentwicklung liegt.

    Die aktuellen Daten deuten darauf hin, dass der Schweizer Einzelhandelsmarkt für Immobilienfachleute weiterhin attraktiv bleibt. Die stabilen Mieten und geringen Leerstandsquoten sind Indikatoren für einen gesunden und dynamischen Markt, in dem Investitionen und Entwicklungen florieren können.

    Zugang zum Detailbericht
    Für vertiefte Einblicke und detaillierte Daten steht der vollständige Bericht in englischer Sprache über das webbasierte Retail Tool von CBRE Schweiz zur Verfügung.

  • Einschätzung des Zinsmarktes

    Einschätzung des Zinsmarktes

    Die aktuellen Daten zur Inflation zeigen eine Kerninflation von 1,50%, was als positives Zeichen gesehen wird. Miet- und Energiekosten tragen wesentlich zu den jüngsten monatlichen Anstiegen bei, wobei Mieten sowohl im Quartals- als auch im Jahresvergleich gestiegen sind. Zukünftige Auswirkungen von Mietpreisanpassungen, die durch den im Juni 2023 aktualisierten hypothekarischen Referenzzinssatz verursacht wurden, werden ab November sichtbar sein.

    Das Bundesamt für Wohnungswesen hat bestätigt, dass der Referenzzinssatz im September bei 1,50% bleibt. Dennoch könnte eine Erhöhung des Durchschnittszinssatzes auf über 1,625% im Dezember zu weiteren Mietpreisanstiegen und damit zu Inflationsspitzen im kommenden Jahr führen.

    Die verzögerten Auswirkungen der Geldpolitik werden zunehmend spürbar, insbesondere auf dem Arbeitsmarkt der Schweiz, wo die Arbeitslosigkeit allmählich ansteigt und die Zahl der offenen Stellen abnimmt.

    Die Quartalsdaten für das zweite Quartal zeigen im Vergleich zum starken ersten Quartal (+0,90%) nur ein geringes Wachstum von 0,02%. Die SECO erwartet dennoch ein positives Wirtschaftswachstum für das Jahr 2023 und einen kontinuierlichen Rückgang der Inflation. Diese Trends untermauern die Erwartung, dass keine weiteren Zinsanpassungen durch die SNB erforderlich sind.

    Die Swapkurve hat sich im Vergleich zum letzten Monat abgeflacht und zeigt weiterhin eine gewölbte Struktur. Die kurzfristigen Swapsätze deuten auf eine geringe Chance für eine Zinserhöhung im September hin.

    Prognose von Avobis
    Es erscheint sehr wahrscheinlich, dass die SNB den Leitzins in der kommenden Sitzung am 21. September unverändert lassen wird. Der Einfluss von Mietpreissteigerungen auf die Inflation bleibt eine Variable, die genau beobachtet werden sollte. Falls bis zum Jahresende keine besorgniserregenden Inflationsanstiege festgestellt werden, könnte die Zinskurve eine inverse Struktur annehmen.

  • Laser ermöglichen Internet-Backbone per Satellit

    Laser ermöglichen Internet-Backbone per Satellit

    Das Rückgrat des Internets – den sogenannten Backbone – bildet ein dichtes Netzwerk aus Glasfaserkabeln, die jeweils bis zu mehr als hundert Terabit an Daten pro Sekunde (1 Terabit = 1012 digitale 1/0-​Signale) zwischen den Netzknoten transportieren. Die Kontinente sind dabei durch die Tiefsee verbunden – und das ist enorm kostspielig: Ein einzelnes Kabel durch den Atlantik erfordert Investitionen von mehreren hundert Millionen Dollar. Das spezialisierte Beratungsunternehmen Telegeography zählt aktuell 530 aktive Unterseekabel. Tendenz steigend.

    Schon bald dürfte dieser Aufwand aber nicht mehr nötig sein. Wissenschaftler der ETH Zürich haben in einem europäischen Horizon-​2020-Projekt gemeinsam mit Partnern aus der Raumfahrtindustrie eine optische Terabit-​Datenübertragung durch die Luft demonstriert. Mit dieser werden künftig wesentlich kostengünstigere und auch viel schneller erstellbare Backbone-​Verbindungen über erdnahe Satelliten-​Konstellationen möglich.

    Anspruchsvolle Verhältnisse zwischen Jungfraujoch und Bern
    Erprobt haben die Projektpartner ihr Laser-​System allerdings nicht mit einem Satelliten im Orbit, sondern durch eine Übertragung über 53 Kilometer vom Jungfraujoch nach Bern. «Unsere Versuchsstrecke zwischen der Hochalpinen Forschungsstation auf dem Jungfraujoch und dem Zimmerwald Observatorium der Universität Bern ist aus Sicht einer optischen Datenübertragung wesentlich anspruchsvoller als zwischen einem Satelliten und einer Bodenstation», erklärt Yannik Horst, der leitende Autor der Studie und Forscher an der ETH Zürich im Institute für elektromagnetische Felder unter Leitung von Professor Jürg Leuthold.

    Der Laserstrahl musste sich auf dem ganzen Weg durch die dichte, bodennahe Atmosphäre bewegen. Dabei beeinflussten die vielfältigen Turbulenzen der Luftgase über dem verschneiten Hochgebirge, der Wasserfläche des Thunersee, der dicht bebauten Agglomeration Thun und der Aare-​Ebene die Bewegung der Lichtwellen und damit auch die Informationsübertragung. Wie stark dieses durch Thermikphänomene ausgelöste Flimmern der Luft die gleichmässige Bewegung von Licht stört, kann man an heissen Sommertagen von blossem Auge erkennen.

    Satelliten-​Internet nutzt langsamen Mikrowellenfunk
    Internetverbindungen über Satelliten sind an sich nichts Neues. Der aktuell bekannteste Vertreter ist die Starlink-​Konstellation von Elon Musk, die mit über 2000 erdnah kreisenden Satelliten Internet in fast jeden Winkel der Welt bringt. Um Daten zwischen Satelliten und Bodenstationen zu übertragen werden allerdings Funktechnologien verwendet, die wesentlich weniger leistungsfähig sind. Sie funktionieren wie WLAN (Wireless Local Area Network) oder der Mobilfunk im Mikrowellenbereich des Frequenzspektrums und damit mit Wellenlägen von einigen Zentimetern.

    Optische Lasersysteme arbeiten demgegenüber im Bereich des nahen Infrarotlichts mit rund 10’000-​mal kürzeren Wellenlängen von wenigen Mikrometern. Dadurch können sie auch entsprechend mehr Informationen pro Zeiteinheit transportieren.

    Um auf grosse Entfernungen beim Empfänger ein genügend starkes Signal zu erhalten, werden die parallelisierten Lichtwellen des Lasers durch ein Teleskop gesendet, das mehrere Dutzend Zentimeter Durchmesser haben kann. Dieser breite Lichtstrahl muss dann möglichst genau auf ein Teleskop beim Empfänger gezielt werden, dessen Durchmesser in der Grössenordnung des empfangenen Lichtstrahls liegt.

    Turbulenzen löschen die modulierten Signale aus
    Damit möglichst hohe Datenraten erreicht werden, wird die Lichtwelle des Lasers zudem so moduliert, dass ein Empfänger pro Schwingung mehrere unterscheidbare Zustände detektieren kann. Dadurch lässt sich pro Schwingung jeweils mehr als ein Informations-​Bit übertragen. In der Praxis wird mit unterschiedlichen Höhen (Amplituden) und Verschiebungen des Phasenwinkels der Lichtwelle gearbeitet. Jede Kombination von Phasenwinkel und Amplitudenhöhe definiert dann ein unterschiedliches Informationssymbol. Mit einem 4×4-​Schema lassen sich so 4 Bit pro Schwingung übertragen und mit einem 8×8-​Schema 6 Bit.

    Die wechselnden Turbulenzen der Luftteilchen führen nun dazu, dass die Lichtwellen im Inneren und an den Rändern des Lichtkegels unterschiedlich schnell wandern. Im Detektor der Empfangsstation addieren oder subtrahieren sich dadurch die Amplituden und Phasenwinkel gegenseitig zu falschen Werten.

    Spiegelchen korrigieren Wellenphase 1500-​mal pro Sekunde
    Um diese Fehler zu verhindern, lieferte der französische Projektpartner einen sogenannten MEMS-​Chip (Mikro-​Elektro-Mechanisches System) mit einer Matrix aus 97 beweglichen Spiegelchen. Durch die Spiegelbewegungen lässt sich die Phasenverschiebung des Strahls auf seiner Schnittfläche entlang dem aktuell gemessenen Gradienten 1500-​mal pro Sekunde korrigieren.

    Unter dem Strich resultiert so eine Verbesserung der Signale um rund einen Faktor 500. Diese Verbesserung war essenziell, um eine Bandbreite von 1 Terabit pro Sekunde über eine Distanz von 53 Kilometern erreichen zu können, wie Horst betont.

    Erstmals zum Einsatz kamen im Projekt zudem neue, robuste Lichtmodulationsformate. Sie erhöhen die Empfindlichkeit der Detektion massiv und ermöglichen dadurch selbst unter schlechtesten Wetterbedingungen oder bei geringen Laserleistungen hohe Datenraten. Erreicht wird dies durch ein geschicktes Codieren der Informations-​Bits auf Eigenschaften der Lichtwelle wie Amplitude, Phase und Polarisation. «Mit unserem neuen 4D-​BPSK-Modulationsformat (Binary Phase-​Shift Keying) kann ein Informations-​Bit auch mit einer sehr kleinen Anzahl von nur rund vier Lichtteilchen am Empfänger noch richtig erkannt werden», erklärt Horst.

    Insgesamt waren für den Erfolg des Projekts die spezifischen Kompetenzen von drei Partnern notwendig. Das französische Raumfahrtunternehmen Thales Alenia Space beherrscht das zentimetergenaue Zielen mit Lasern über Tausende von Kilometern im Weltraum. Die ebenfalls französische Luft-​ und Raumfahrtforschungsanstalt Onera verfügt über die Kompetenzen in MEMS-​basierter adaptiver Optik, mit der die Effekte des Luftflimmern weitgehend eliminiert wurden. Und die für eine hohe Datenrate unerlässliche, möglichst effektive Modulation der Signale, gehört zu den Spezialgebieten der Forschungsgruppe von Leuthold.

    Problemlos auf 40 Terabit pro Sekunde ausbaubar
    Die im Rahmen der European Conference on Optical Communication (ECOC) in Basel erstmals präsentierten Resultate des Versuchs sorgen weltweit für Furore, so Leuthold: «Unser System bedeutet einen Durchbruch. Bisher gelang es nur, entweder grosse Distanzen mit kleinen Bandbreiten von wenigen Gigabit oder kurze Distanzen von wenigen Metern mit grossen Bandbreiten per Freilandlaser zu verbinden».

    Dazu kommt, dass die Leistung von 1 Terabit pro Sekunde mit einer einzigen Wellenlänge erreicht wurde. In einer zukünftigen praktischen Anwendung lässt sich das System mit Standardtechnologien problemlos auf 40 Kanäle und damit auf 40 Terabit pro Sekunde hochskalieren.

    Zusätzliches Potenzial für das neue Modulationsformat
    Damit werden sich Leuthold und sein Team aber nicht mehr beschäftigen. Die praktische Umsetzung in ein marktfähiges Produkt übernehmen die Industriepartner. Einen Teil der Arbeit werden die ETH-​Wissenschaftler:innen allerdings weiterverfolgen. Das von ihnen entwickelte neue Modulationsformat dürfte künftig auch in anderen Datenübertragungsverfahren, bei denen die Energie der Strahlung zu einem begrenzenden Faktor werden kann, für eine Erhöhung der Bandbreiten sorgen.

  • Oracle erweitert Smart Construction Platform um neue Analysefunktionen

    Oracle erweitert Smart Construction Platform um neue Analysefunktionen

    Im Bauwesen ist es schwierig, Daten anwendungsübergreifend zu nutzen, um Probleme effektiv zu diagnostizieren, Risiken vorherzusagen und künftige Maßnahmen zu planen. Um diese Herausforderung zu bewältigen, hat Oracle heute Oracle Construction Intelligence Cloud Analytics angekündigt. Die neue Lösung kombiniert Daten aus Oracle Smart Construction Platform-Anwendungen, um Bauherren und Bauunternehmen während ihrer Arbeitsvorgänge ein umfassendes Verständnis der Performance zu vermitteln. Mit diesen Erkenntnissen können Organisationen Probleme schnell erkennen und beheben sowie Wege finden, um Projektplanung, Bauphase und Anlagenbetrieb kontinuierlich zu verbessern.

    „Sie können nicht verwalten, was Sie nicht messen können“, sagt Roz Buick, Senior Vice President of Product, Strategy and Marketing bei Oracle Construction and Engineering. „Das neue Oracle Construction Intelligence Cloud Analytics-Angebot in Kombination mit der Predictive Intelligence-Engine und der gemeinsamen Datenumgebung der Smart Construction Platform vermittelt unseren Kunden ein tieferes, ganzheitliches Verständnis ihrer Performance. Jetzt können sie einzigartige Datenstrategien entwickeln, die die Wettbewerbsdifferenzierung fördern. Auf diese Weise wird die Baubranche zu einer Six-Sigma-Genauigkeit gelangen, wie sie heute schon in anderen Industrieteilen und in der Fertigung anzutreffen ist.“

    Die Smart Construction Platform vereint Funktionen von Oracle Construction and Engineering-Anwendungen sowie von Lösungen von Drittanbietern in einer gemeinsamen Datenumgebung mit verbesserter Benutzererfahrung. Mit der Plattform können Bauherren und Bauunternehmen einfacher zusammenarbeiten, um die Entscheidungsfindung organisationsübergreifend zu verbessern. Die neue Analyselösung und weitere Plattformupdates stellt Oracle heute im Oracle Industry Lab in Deerfield, Illinois, vor.

    „Wir konzentrieren uns zunehmend darauf, neue und bessere Wege für die Nutzung unserer Daten zu finden, sodass wir weitere Einblicke in die Performance und das Risiko von Projekten gewinnen können“, sagte Brian Neal, Projektmanager bei Rudolph Libbe Inc. „Das Verbinden und Kombinieren von Daten für die Analyse wird den umfassendsten Einblick in unsere Arbeitsabläufe bieten und uns dabei helfen, Trends in unserem Unternehmen zu verstehen. Außerdem können wir so Wege finden, um die Übergabe der Projekte an unsere Kunden zu optimieren.“

    Smart Construction Platform: Menschen, Prozesse und Daten im Einklang
    Die Smart Construction Platform vereint die Kernanwendungen, Prozesse und Daten, die Bauherren und Bauunternehmen benötigen, um über Projekt- und Asset-Lebenszyklen hinweg zusammenzuarbeiten. Dazu gehören Portfolioplanung, Angebots-/Ausschreibungsverfahren, Verträge, Zeitpläne, Projektdokumente sowie die Zusammenarbeit mit Building Information Model (BIM), Tätigkeiten vor Ort, Kosten und Zahlungen. Mit der neuen einheitlichen Erfahrung, der gemeinsamen Datenumgebung und der anwendungsübergreifenden Interoperabilität können Benutzer problemlos zwischen Anwendungen und Datensets wechseln, während sie an einem einzigen Projekt arbeiten. Durch die Synchronisierung von Aktivitäten, Ressourcen und Daten im Verlauf jedes Projekts und Assets trägt die Plattform dazu bei, dass Teams aus verschiedenen Fachbereichen stets mit denselben Informationen auf dasselbe Ziel hinarbeiten.

    Beispielsweise synchronisieren die Planungs- und Projektmanagementfunktionen Planungs- und Baustellenteams anhand eines Hauptplans und geben sowohl Einblick in einen einheitlichen Zeitplan als auch in die Aufgabendaten, die erforderlich sind, um die richtige Arbeit zur richtigen Zeit am richtigen Ort zu erledigen. Sollte sich also der Termin einer HLK-Installation aufgrund eines Problems in der Lieferkette ändern, erhält der Projektmanager automatisch die aktualisierten Zeitplaninformationen und kann alle erforderlichen Anpassungen für die betroffenen Teams koordinieren.

    Darüber hinaus liefert die Plattform Investitionsplanern genaue, zeitnahe Daten zu Projektprognosen, damit sie sich mit Managern über Budgetanforderungen abstimmen und diese anpassen können, wenn sich strategische Prioritäten ändern. Zum Beispiel führt die Inflation zu einer Verdoppelung der Kosten, der für ein Projekt benötigten Materialien. Der Projektmanager kann diese neuen Ist-Beträge und Prognosen an den Planer weitergeben, der dann zeitnah Änderungen am Portfolio vornehmen.

    Die Plattform lernt kontinuierlich und wird mithilfe von Machine Learning intelligenter, sodass sie vergangene Maßnahmen berücksichtigt, um potenzielle Risiken aufzuzeigen und eine fundiertere Entscheidungsfindung zu unterstützen. Oracle seinen Kunden bieten eine Vielzahl an vernetzten Funktionen. Dazu gehören:

    • Bereitstellung aktueller Zeitplandaten für Projektmanager, damit Teams sich an geplanten Lieferterminen und anderen Zeitplananforderungen ausrichten können.

    • Gemeinsame Planung (CPM-Zeitplan) mit Baustellenteams (Aufgabenplan), um Zeit- und Ressourcenverschwendung zu minimieren.

    • Investitionsplanungs- und Projektausführungsteams können Kostendaten für Budget und Ist-Beträge austauschen, sodass sich beide Teams im Projektverlauf sicher an verschiedene Situationen anpassen können.

    • Automatisches Speichern abgeschlossener Angebots-/Ausschreibungspakete sowie genehmigter Rechnungen und anderer Zahlungsmaterialien in den Dokumentenregistern von Unternehmen.

    • Transparenz für alle Beteiligten, um gemeinsam Fortschritte zu verfolgen, Risiken zu identifizieren und zu mindern sowie Änderungen in der gesamten Lieferkette effizient zu verwalten.

    „Dank Oracle verbessern wir die Koordination, Transparenz und Kontrolle während der Projektentwicklung“, sagte Weronika Nowak, Document Control und IT Manager bei Mayflower Wind. „Die Möglichkeit unsere Teams, Prozesse und Daten über Anwendungen und alle Projektphasen hinweg weiter zu vernetzen, steigert die Effizienz. Zudem liefert es unseren Mitarbeitern die Informationen, die sie zum problemlosen Bewältigen von Änderungen benötigen, während wir an der Bereitstellung kritischer Energieanlagen arbeiten.“

  • Datenkompetenz: ein No Brainer!

    Datenkompetenz: ein No Brainer!

    «Daten sind das neue Gold» – so vernehmen wir es seit Jahren. Vor dem Hintergrund einer zunehmenden Komplexität von Sachverhalten und Anforderungen werden in Unternehmen quer durch alle Branchen Datenanalysten rekrutiert und entsprechende Teams aufgebaut. Daten per se führen aber noch zu keinen Lösungen. Es gilt vielmehr eine Strategie daraus abzuleiten – dafür braucht es nicht nur die intelligente Verknüpfung von Daten sondern auch entsprechende Marktkenntnis und die Analyse in einem bestimmten Kontext.

    Wie kann nun das Marktbedürfnis besser ermittelt und passender Wohnraum entwickelt und gebaut werden? Die Digitalisierung hat hier für die Planung und den Bau von Immobilien viele Möglichkeiten hervorgebracht. Mit entsprechenden Tools – beispielsweise von Luucy, Archilyse oder PriceHubble, um nur einige zu nennen – können Prozesse und Entscheidungen entlang der gesamten Wertschöpfungskette vereinfacht und beschleunigt werden: von der Akquisition geeigneter Grundstücke, über die Entwicklung und Vermarktung, bis hin zur Bewirtschaftung der Objekte. KI-basierte Technologie kommt hier immer öfter zum Einsatz.

    Die «Hard Facts» sind sicher die Basis für datenbasierte Auswertungen. Aber Entwickler wünschen sich auch zunehmend «weiche Kennzahlen» als Ergänzung für ihre Entscheidungen, beispielsweise eine Information zur Zufriedenheit der Bewohner. Letztlich zählt natürlich sehr wesentlich der Erfahrungswert – die besten Entscheidungen sind bekanntlich die, bei denen auch das «subjektive Bauchgefühl» stimmt. Denn auch bei der besten Datengrundlage gilt: am Ende entscheidet immer der Mensch.

    Mehr Impulse zum Thema finden Sie hier: https://proptechmarket.net/impulse

  • Datencenter erobern die Schweiz – Zweithöchste Dichte in Europa

    Datencenter erobern die Schweiz – Zweithöchste Dichte in Europa

    Die Schweiz verfügt bereits heute gemessen an ihrer Bevölkerungszahl über eine äusserst hohe Dichte an Datencentern, nach den Niederlanden sogar die zweithöchste in Europa. Die in einer aktuellen Studie von CBRE Schweiz identifizierten 93 Colocation-Datencenter verfügen über eine Fläche von mindestens 154’000 m2, was rund 22 Fussballfeldern entspricht.

    Zürich an sechster Stelle in Europa
    Die Region Zürich liegt mit 68 Megawatt (MW) nach London (711 MW), Frankfurt (510 MW), Amsterdam (365 MW), Paris (204 MW) und Dublin (94 MW) an sechster Stelle in Europa, was die Rechenzentrums-Kapazitäten anbelangt. Eine Leistungssteigerung um weitere 50 MW bis 2022 ist bereits gesichert, wie es verschiedene Bauprojekte in Glattbrugg (Interxion), Winterthur (Vantage Data Centers) oder Dielsdorf (Green Datacenter) veranschaulichen. Weitere Datencenter sind bereits geplant, und damit wird sich die Kapazität in wenigen Jahren verdoppeln.
    Der Schweizer Markt besteht derzeit aus einem Mix aus Wholesale- und Retail-Anbietern. Bei den in den letzten Jahren initiierten Grossprojekten handelt es sich meistens um sogenannte Hyperscaler-Datencenter, die von Schweizer oder ausländischen Betreibern errichtet und von grossen internationalen Cloud-Anbietern wie Google, Oracle, Microsoft und Amazon genutzt werden.

    Gute Wirtschaftsbedingungen und souveräne Datenschutzanforderungen
    Neue Kundengewinne bei Finanzdienstleistern, ein wachsender Fintech-Sektor und die anhaltende Migration internationaler Unternehmen in die Cloud haben Anbieter ermutigt, Cloud-Regionen in der Schweiz aufzubauen. Die Schweiz hat ihre eigenen Datenschutzanforderungen, die die Souveränität fördern, es aber internationalen Unternehmen erlauben, mit einer europäischen Basis zu operieren, ohne die Anforderungen der Europäischen Union (z.B. Datenschutz-Grundverordnung) erfüllen zu müssen. Probleme mit der Bereitstellung von Land und Strom, lange Planungsprozesse sowie die Einhaltung von Nachhaltigkeitskriterien bleiben dabei die wichtigsten Herausforderungen.

    Auch wenn der Markt für Rechenzentren in der Schweiz als Nische gilt, entdecken Private Equity-Firmen und zunehmend auch Infrastrukturfonds diesen Wachstumsmarkt für sich. Der Markt für Rechenzentren erfordert ein spezifisches Know-how, das sich von anderen Immobilientypen unterscheidet. Obwohl traditionelle Immobilieninvestoren noch kein grosses Interesse an Rechenzentren zeigen, sollten sie diesen Markt langfristig genau im Auge behalten, da er ein schnell wachsendes Potenzial für alternative Immobilieninvestitionen bietet.