Lernen Sie neue Fähigkeiten mit übermenschlicher Geschwindigkeit - IEEE Spectrum

2022-08-20 12:00:17 By : Ms. Rita Zhou

IEEE-Websites platzieren Cookies auf Ihrem Gerät, um Ihnen die beste Benutzererfahrung zu bieten.Durch die Nutzung unserer Websites stimmen Sie der Platzierung dieser Cookies zu.Um mehr zu erfahren, lesen Sie unsere Datenschutzrichtlinie.Der Handschuh sieht langweilig aus, wie ein Kleidungsstück, das Sie in einem Sportgeschäft abholen könnten.Er ist aus weichem schwarzem Leder und fingerlos, wie ein Fahrrad- oder Gewichtheberhandschuh.Die Ähnlichkeit täuscht jedoch."Wirklich?"Ich sage.„Während wir reden?“„Sicher“, sagt er und lädt mich nach Atlanta ein, um es mir selbst anzusehen.Aber sie sagt mir nicht, welche Melodie ich lernen werde.„Sie werden nur ein leichtes Summen spüren“, sagt sie und schaltet die Elektronik ein.Dann nimmt mich Starner mit, um mir die unzähligen anderen Projekte seines Labors vorzuführen: eine Sprachübersetzungs-App für Google Glass, ein magnetisches Zungenimplantat, um stumme Befehle an einen Computer zu senden, eine intelligente Weste, die Tauchern hilft, mit Delfinen zu kommunizieren, intelligente Kauspielzeuge, die helfen Polizeihunde kommunizieren mit Hundeführern und allen möglichen anderen wunderbar verrückten Wearables.In den nächsten 2 Stunden vibrieren einmal pro Minute die Motoren im Handschuh über meinen Fingern.Ich versuche, das Muster herauszufinden: summen … Mittelfinger … summen … Ringflosse … summen … summen … ger … summen … äh … summen … summen … Scheiße.„UNMÖGLICH“, schreibe ich in mein Notizbuch.Schließlich begleitet mich Starner zu einer Tastatur.Er spielt die erste Passage eines Liedes – 15 Töne, die mir der Handschuh angeblich beigebracht hat.Ich erkenne die Melodie.Es ist Beethovens „Ode an die Freude“.Ich ziehe den Handschuh aus.„Fangen Sie hier an“, sagt Starner und trifft den ersten Ton.Ich lege meine Finger auf die Tasten.Mittelfinger … Mittelfinger … Ringfinger … »Ich weiß nicht«, sage ich verlegen.„Denken Sie nicht darüber nach“, sagt Starner.Ich fange wieder an.Mitte…mittlerer…Ring…kleiner…kleiner…Ring…mittlerer…Zeiger…."Das ist verrückt!"Ich sage, ich spiele immer noch.Und ich höre nicht auf.Ich beende die erste Passage, spiele dann die zweite und beginne mit der dritten.„Jetzt halte durch!“Starner wirft ein.„Hast du das schon einmal gespielt?“„Niemals“, sage ich.Es stimmt, ich habe nie Klavierunterricht genommen.Verwirrt inspiziert er den Handschuh und stellt fest, dass er so programmiert ist, dass er alle vier Phrasen des Liedes vibrieren lässt – 61 Noten, nicht 15. Normalerweise, erklärt er, unterrichten er und seine Schüler jeweils nur eine Phrase.Ich nähere mich wieder der Tastatur.Ich fummele ein paar Versuche – schließlich lerne ich –, aber innerhalb von Minuten kann ich die Melodie perfekt spielen.Ich fühle mich schwindelig, als hätte ich gerade ein angeborenes Talent entdeckt, von dem ich nie wusste, dass ich es habe.„Man weiß einfach, was zu tun ist – es ist Wahnsinn“, bemerkt Seim.Kürzlich brachte sie sich selbst bei, „Ode an die Freude“ zu spielen, indem sie den Handschuh trug, während sie eine Bewerbung für ein Forschungsstipendium schrieb.„Es ist fast so, als würde man einer Phantomhand zusehen.“Starner und seine Kollegen glauben, dass das wiederholte Summen des Handschuhs ein Muskelgedächtnis erzeugt, das es einem Träger ermöglicht, das Spielen eines Liedes mit weitaus weniger Übung zu lernen, als dies ohne haptische Stimulation erforderlich wäre.Sie haben auch die Wirkung des Handschuhs auf Menschen mit Rückenmarksverletzungen untersucht und herausgefunden, dass er ihnen dabei helfen kann, etwas Gefühl und Geschicklichkeit in ihren Händen wiederzuerlangen.Die Forscher beginnen nun mit Experimenten, um zu testen, ob haptische Handschuhe Braille-Schreiben und Stenographie lehren können – ein Beweis dafür, dass die Technologie nicht nur Muster, sondern auch Sprache vermitteln kann.„Wir kennen die Grenzen nicht“, sagt Starner.„Können wir diese Art von Vibrationsmotoren an die Beine der Leute anbringen und ihnen das Tanzen beibringen?Können wir den Leuten beibringen, wie man einen besseren Baseball wirft?“Er erwähnt eine Szene aus dem Science-Fiction-Thriller „Matrix“, in der die Helden des Films, Neo und Trinity, einen Helikopter entführen: „Kannst du das Ding fliegen?“fragt Neo seine rechte Hand.„Noch nicht“, sagt sie.Der Film zeigt Trinitys Augenlider, die flackern, während das Wissen durch einen Datenport an ihrem Hinterkopf fließt.Sekunden später sind sie in der Luft.„Das kannst du natürlich nicht“, sage ich.Weitere Informationen zur Zukunft tragbarer Computer finden Sie unter „Wearable Computers Will Transform Language“.Roboter werden im Finale des ANA Avatar XPRIZE physische Verkörperungen aus der Ferne erforschenIm Idealfall wären autonome Roboter in der Lage, alles zu tun, was wir von ihnen wollten, und viele Menschen arbeiten sehr hart an diesem Ziel.Ärgerlicherweise sind Menschen jedoch äußerst fähig, und mit Ausnahme von Aufgaben, die eine ganz bestimmte Kombination aus Kraft, Geschwindigkeit oder Präzision erfordern, ist es immer noch eine gute Möglichkeit, einen Menschen auf dem Laufenden zu haben, um sicherzustellen, dass Sie die Arbeit erledigen.Aber die physische Fleischsacknatur des Menschen ist auch ärgerlich und beschränkt uns darauf, unsere Talente einzusetzen und (ebenso wichtig) physische Erfahrungen nur an einem Ort gleichzeitig zu machen.Der ANA Avatar XPRIZE versucht, dieses Problem zu lösen, indem Menschen und Roboter kombiniert werden, indem physische, nicht autonome Avatarsysteme ermöglicht werden, die es entfernten Benutzern ermöglichen, in Echtzeit zu sehen, zu hören, zu berühren und zu interagieren.Das ist keine neue Idee, aber mit 10 Millionen US-Dollar zu gewinnen, ist dieser Wettbewerb der größte Vorstoß in Richtung Avatar-Robotik, den wir seit der DARPA Robotics Challenge gesehen haben.Und nach einem fragwürdigen Start hat sich die Herausforderung entwickelt, um (ich würde behaupten) ihren Zweck besser zu erfüllen, mit einer Abschlussveranstaltung im November, die definitiv sehenswert sein wird.In Zukunft könnten Avatare bei der Bereitstellung von Intensivpflege und sofortigen Reaktionen in Notsituationen helfen oder Möglichkeiten für Erkundungen und neue Wege der Zusammenarbeit bieten, die Grenzen des Möglichen erweitern und die Wirkung des Austauschs von Fähigkeiten und Wissen maximieren.Avatar-Roboter sind Systeme, die entwickelt wurden, um die Hardware und Software bereitzustellen, die für einen entfernten Menschen erforderlich sind, um die Umgebung des Roboters so direkt wie möglich zu erleben, und es dem Menschen zu ermöglichen, mit dieser Umgebung zu interagieren.Inwieweit man Avatar-Systeme streng genommen als „Roboter“ bezeichnen kann, ist fraglich, denn der Fokus liegt meist eher auf Erlebnistreue als auf Autonomie.Den Systemen steht es frei, ihre Benutzer bei der Durchführung von Low-Level-Aufgaben zu unterstützen, aber Systeme, die alles andere als „semi-autonom“ sind, sind ausdrücklich vom Xprize-Wettbewerb ausgeschlossen.Avatar-Systeme sind im Wesentlichen sehr, sehr schicke Fernsteuerungsstationen, die mit mobilen Manipulatoren verbunden sind.Für den Human in the Loop bedeutet dies normalerweise (mindestens) ein Virtual-Reality-Headset zusammen mit einer Möglichkeit, einen oder zwei Manipulatoren direkt zu steuern.Das Konzept könnte jedoch auf tragbare Sensoren und sogar Gehirn-Maschine-Schnittstellen erweitert werden.Die Idee ist, dass, sobald Sie so etwas in Betrieb haben, die Entfernung kein Faktor mehr ist und Sie das Avatar-System effektiv nutzen können, egal ob es sich im nächsten Raum, auf dem nächsten Kontinent oder irgendwo anders befindet Tiefsee zu hoher Umlaufbahn.Der von der japanischen Fluggesellschaft ANA gesponserte Xprize-Wettbewerb läuft bereits seit mehreren Jahren.20 Finalistenteams wurden ausgewählt, um im November in Los Angeles anzutreten.Während jeder Roboter einige allgemeine Richtlinien erfüllt (mobil, sicher in Innenräumen und in der Nähe von Menschen zu betreiben, unter 160 kg, vollständig ungebunden), hat jedes Team seine eigene einzigartige Hardware und Herangehensweise an die Telepräsenz, was den Wettbewerb unglaublich spannend machen sollte.Während der letzten Veranstaltung muss jeder dieser Roboter (und ihre Fernbediener) 10 Aufgaben erfüllen, die die Fähigkeit des Avatars testen, eine Fernverbindung von Mensch zu Mensch herzustellen, das Potenzial, Orte zu erkunden, an denen Menschen dies nicht können, und die Machbarkeit des Transports Fähigkeiten eines erfahrenen Menschen an entfernte Standorte in Echtzeit.Diese Aufgaben messen konkrete Dinge wie die Genauigkeit der Fernwahrnehmung (einschließlich Berührung), Lokalisierung und Navigation sowie Manipulation.Es wird auch Aufgaben geben, die auf eher erfahrbare Dinge abzielen, einschließlich der Effektivität des emotionalen Ausdrucks und des natürlichen Wechselns von Gesprächen.Die vollständigen Testaufgaben werden zwar erst beim letzten Event bekannt gegeben, aber hier sind einige Beispiele dafür, was die Aufgaben beinhalten werden:Keine dieser Beispielaufgaben scheint unbedingt so kompliziert zu sein, aber der Schlüssel liegt darin, sie zuverlässig und gut auszuführen, insbesondere wenn es um Dinge geht, die empirisch nicht ganz so einfach zu messen sind – wie die Fähigkeit, zu geben (und zu fühlen). ) eine sanfte Umarmung.Die eigentliche Wertung wird von erfahrenen Juroren durchgeführt, die als Bediener fungieren, was eine wirklich großartige Möglichkeit ist, um sicherzustellen, dass die Avatar-Schnittstellen anpassungsfähig, effektiv und benutzerfreundlich sind.Während der Veranstaltung dauert der bewertete Teil jedes Versuchs maximal 25 Minuten, aber die 75 Minuten davor werden damit verbracht, den Bediener in der Verwendung des Avatar-Systems zu schulen.75 Minuten mögen nach viel Zeit klingen, aber für einen neuen Operator auf einem ausgeklügelten System müssen sich die Teams nicht nur darauf konzentrieren, ihre Systeme benutzerfreundlich zu gestalten, sondern auch einen effektiven Weg finden, die Leute zu schulen.Ich schätze diesen Aspekt der Herausforderung sehr, denn (wie wir sowohl bei der DARPA Robotic Challenge als auch bei der SubT Subterranean Challenge gesehen haben) können erfahrene Bediener erstaunliche Dinge vollbringen, aber das ist kein nachhaltiger Weg für die breite Einführung praktischer ferngesteuerter Roboter .Die Abschlussveranstaltung selbst ist kostenlos und am 4. und 5. November in Los Angeles für die Öffentlichkeit zugänglich.Zuschauer (das sind Sie!) können sowohl die Teststrecke als auch die Mannschaftsgaragen sehen, und es wird Live-Übertragungen aus den Kontrollräumen der Bediener sowie Feeds darüber geben, was die Bediener durch die Sensoren ihrer Avatar-Roboter erleben.Die Einsätze sind hoch: 5 Millionen Dollar gehen an das Siegerteam, 2 Millionen Dollar an den zweiten Platz und 1 Million Dollar an den dritten.Für weitere Details zum Wettbewerb sprachen wir mit David Locke, dem Senior Program Director des ANA Avatar XPRIZE.IEEE Spectrum: Woher kam die Inspiration für diesen Wettbewerb?David Locke: Die Vision, die wir mit ANA hatten, war diese Idee der Teleportation – die Idee, dass man sich buchstäblich an einen anderen Ort teleportieren könnte.Aber wir wussten, dass wir damals nicht über die Technologie dafür verfügten, und wir haben sie jetzt sicherlich nicht, aber was ist der nächste Schritt?Was wäre, wenn Sie einen Avatar in die Mitte dieser Vision stellen und sich durch dieses System überall auf der Welt transportieren könnten.Teleportation ist vielleicht keine Option, aber Telepräsenz und Teleexistenz bedeutet, dass Sie sich tatsächlich an einem Ort physisch präsent fühlen können, indem Sie den Roboter als Kanal verwenden.Verglichen mit DRC und SubT, wo werden diese Avatar-Systeme Ihrer Meinung nach im Spektrum von Roboterbedienern bis hin zu Roboterüberwachern stehen?Als ich zum ersten Mal zu diesem Avatar-Wettbewerb kam, dachte ich viel über die Demokratische Republik Kongo nach und wie wir diesen Wettbewerb daraus modellieren könnten.Ich habe tatsächlich den technischen Leiter für den DRC geholt, um mir bei der Durchführung dieses Wettbewerbs zu helfen.Aber um es klar zu sagen, der Avatar, über den wir sprechen, ist nicht autonom.Dieser Roboter wird keine Bewegungen ausführen, ohne dass der Bediener vorschreibt, dass er diese Bewegungen ausführen wird.Ich denke, die Zukunft von Avataren könnte eine Kombination aus Nicht-Autonomie und Autonomie beinhalten, aber im Moment konzentrieren wir uns wirklich auf die Nicht-Autonomie.Der Grund dafür ist, dass es für uns wichtig ist, dass sich der Bediener mit der Umgebung verbunden fühlt, und eine Möglichkeit, dies zu tun, besteht darin, seine eigenen Bewegungen zu steuern und sich nicht vom Avatar sagen zu lassen, wohin er gehen soll.Wir möchten, dass der Benutzer gemeinsame Interaktionen hat, die sich authentisch anfühlen, wo Sie ein volles Gefühl der Verkörperung in der entfernten Umgebung spüren.Aber ist es nicht wahr, dass manchmal, wenn Sie einen Roboter mit mehreren Freiheitsgraden fernsteuern, die Aufgabe so komplex ist, dass Sie sich trotzdem von der entfernten Umgebung getrennt fühlen?Was ist mit assistierender Autonomie, um diese Schnittstelle zu glätten?Im Halbfinale haben wir das sehr oft festgestellt.Die Juroren beurteilen ihre Erfahrung sowohl auf subjektiver als auch auf objektiver Ebene, und Sie würden sehen, wie sie mit Dingen wie dem Greifen von Puzzleteilen kämpfen.Und manchmal musste der Empfängerrichter sie in die richtige Richtung schubsen.Ich denke definitiv, dass es eine Form der Autonomie geben wird, die in Zukunft eine größere Rolle bei Avataren spielen wird, aber es ist schwer zu sagen, was das sein wird, und ich würde es gerne in einem ANA Avatar XPRIZE Nummer zwei erforschen .Aber ich denke, im Moment ist diese nicht-autonome Zone ein guter Ort für uns, als eine Art „Hallo Welt“ für das Potenzial der Avatar-Technologie.Können Sie beschreiben, worauf sich das Finale konzentrieren wird?Wir werden fortgeschrittene Aufgaben in den Bereichen Mobilität, Haptik und Manipulation angehen, mit Fokus auf drei Domänen: Verbindung, die Fähigkeit für Menschen, sich mit einem Avatar als Kanal zu verbinden, Übertragung von Fähigkeiten, die Fähigkeit, Ihre Fähigkeiten überall hin zu transportieren Welt mit einem Avatar und dann Exploration, die Idee, dass Sie einen Avatar verwenden können, um von Ihrer eigenen Couch aus überall hin zu reisen oder Orte zu erreichen, die gefährlich oder anderweitig für Menschen unzugänglich sind.Das sind die drei wichtigsten Dinge, auf die wir beim Finale eingehen werden.Wenn Verbindung eine wichtige Metrik für diesen Wettbewerb ist, wie beurteilen Sie das fair?Es ist tatsächlich so gewichtet, dass die Erfahrung des Bedieners und die Erfahrung des Empfängers die wichtigsten Teile des Wettbewerbs sind, wichtiger als die objektive Bewertung auf Aufgabenebene.Diese Begründung hat sich seit den Tests im Halbfinale weiterentwickelt;Nach einer weiteren Überprüfung unserer Halbfinal-Testdaten und weil wir so positive Rückmeldungen/Bewertungen von den Juroren bezüglich der Erfahrung(en) des Empfängers und des Bedieners während des Halbfinals gesehen haben, gewichten wir jetzt für das Finale die Fähigkeit, die erforderlichen Aufgaben zu erfüllen.Erfahrung bleibt absolut ein Schlüsselfaktor.Von den 15 möglichen Punkten, die Teams beim Finale verdienen können, werden jedoch 10 Punkte aufgabenbasiert sein, wobei 5 Punkte den Erfahrungen des Operators/Empfängers zugeschrieben werden.Dies wird auch aus der Perspektive des Geschichtenerzählens und des Publikumserlebnisses hilfreich sein.Wenn man sich die Finalistenteams ansieht, gibt es eine große Vielfalt an Hardware, und teurere Hardware kann einen enormen Unterschied in der Leistung eines Roboters ausmachen.Wie wirkt sich das auf den Wettbewerb aus?Es ist schwer zu sagen.Ihr Team hat vielleicht nicht die beste Hardware, aber wenn Sie in der Lage sind, verschiedene Technologien zu konvergieren und zu integrieren, um erfolgreich zu sein, haben Sie einen Vorteil.Aber weißt du, es ist etwas, dem wir bei allen XPRIZEs gegenüberstehen, und ich kann mir vorstellen, dass DARPA auch ein bisschen davon hat: Wie schafft man es, gleiche Wettbewerbsbedingungen für alle Teams zu schaffen?Einige der Schritte, die wir früh in diesem Wettbewerb unternommen haben, waren sehr früh sehr hart zu treffen, da Teams versuchen sollten, zusammenzuarbeiten und Ideen und Technologien auszutauschen und sich entweder zusammenzuschließen und größere Teams zu bilden oder andere Wege zur Unterstützung zu finden einander.Wir haben auch versucht, verschiedene Experten zu finden, mit denen wir die Teams beraten können, sowie eine Reihe verschiedener Lieferpartner für kostenlose oder ermäßigte Waren hinzuzuziehen.Und bei den Tests im Halbfinale haben wir 2 Millionen US-Dollar an Meilenstein-Preisgeldern ausgeschüttet.Ich habe an acht dieser XPRIZE-Wettbewerbe teilgenommen.Und das einzige, was mich immer wieder umhaut, ist, dass es vielen dieser Teams nicht nur ums Geld oder den Sieg geht – es kommt von einem ehrlichen Ansatz, die Technologie voranzutreiben, und ich bin immer wieder schockiert über das Maß an Hingabe die diese Teams haben, um Fortschritte zu machen und die Technologie voranzutreiben.-David LockeWas sollten unsere Erwartungen für die Abschlussveranstaltung sein?Dieser Wettbewerb ist so anders als alle anderen Robotik-Wettbewerbe, weil es nicht nur um das Erfüllen der Aufgaben geht.Es geht darum, Menschen zu erforschen und zu verbinden, und das kann schwer zu demonstrieren sein.Das Publikum muss wirklich verstehen, was es sieht, denn als Zuschauer ist es schwierig, eine Verbindung zwischen einem Menschen und einem Roboter zu erkennen, richtig?Das Publikum kann den Roboter in der Studie zusammen mit dem Empfänger sehen, aber es wird auch eine Bedieneransicht sehen, die zeigt, was der Bediener sieht und warum er die Entscheidungen trifft, die er trifft, während er durch die Studie geht Kurs.Die Leute müssen bedenken, dass dies wie der allererste Computer ist.Was wir sehen, wird nicht direkt vom Testparcours in die Verkaufsregale gelangen.Es wird einige Zeit dauern, bis die Technologie Fortschritte macht, und dies wird Phase Nummer eins sein.Und was ich gerne sehen würde, ist eine Möglichkeit, diese Herausforderung mit XPRIZE Jahr für Jahr fortzusetzen, um Teams dabei zu helfen, ihre Technologie zu verbessern und sie auf den Markt zu bringen.Langfristig werden Avatar-Roboter, so hoffen wir, diese Konkurrenz weit übertreffen.Die Pandemie hat gezeigt, wie flexibel physische Präsenz sein sollte und wie wichtig sie sein kann.Telepräsenz war ein wichtiger erster Schritt, der (zumindest für mich) einige verlockende Hinweise darauf gegeben hat, wie mächtig verkörperte Fernpräsenz potenziell sein kann.Die Idee einer immersiven Erfahrung ist viel überzeugender, und der Avatar XPRIZE wird uns dabei helfen, dorthin zu gelangen.Hyperganic nutzt KI, um neue Wärmetauscher zu entwerfen, die in Metall 3D-gedruckt werden könnenPrachi Patel ist freiberuflicher Journalist in Pittsburgh.Sie schreibt über Energie, Biotechnologie, Materialwissenschaften, Nanotechnologie und Computer.Hyperganic hat sich mit TRUMPF zusammengetan, um diesen Wärmetauscher basierend auf physikalischen Prinzipien, die in der Natur zu finden sind, algorithmisch zu entwerfen.Sie arbeiten jetzt mit Krailling und Strata Manufacturing zusammen, um eine effizientere Klimaanlage für Wohngebäude mit 3D-gedrucktem Wärmetauscher zu bauenDie Energie, die wir für die Kühlung von Innenräumen aufwenden, hat sich seit 1990 verdreifacht und wird sich bis 2050 noch einmal verdreifachen, da Entwicklungsländer und Länder mit mittlerem Einkommen Klimaanlagen einsetzen.Forscher stecken viel Schweiß in innovative Kühltechnologien, die weniger Energie verbrauchen, aber keine scheint in naher Zukunft für die Hauptsendezeit bereit zu sein.„Klimainnovation ist wie Kernfusion, immer zwanzig Jahre in der Zukunft“, sagt Lin Kayser, CEO von Hyperganic, einem Unternehmen für KI-basierte Designsoftware mit Sitz in München.Kayser will das mit KI und 3D-Druck ändern.Durch den Einsatz von KI zur Generierung eines radikal neuen Wärmetauscherdesigns, das dann mit einem 3D-Metalldrucker gedruckt werden kann, entwickelt Hyperganic nach eigenen Angaben eine Wohnklimaanlage, die zehnmal effizienter als herkömmliche Klimaanlagen ist und dabei die gleiche Menge kostet Geld für Anschaffung und Betrieb für ein Jahr.Das Unternehmen hat sich mit der in Krailling, Deutschland, ansässigen EOS GmbH, einem Hersteller von Metall- und Kunststoff-3D-Druckern, und dem in den Vereinigten Arabischen Emiraten ansässigen Fertigungsunternehmen Strata Manufacturing zusammengetan.Klimaanlagen kühlen Gebäude, indem sie Innenwärme durch den Wärmetauscher oder die Kondensatoreinheit, die ein Kältemittelgas zu Flüssigkeit komprimiert, nach außen pumpen.Ventilatoren blasen über den Kondensator, um die beim Verflüssigungsprozess freigesetzte Wärme in die Luft zu blasen.Die Kühlung verbraucht heute über 16 Prozent der Energie, die Gebäude verbrauchen, wobei der Wärmetauscher die energieintensivste Komponente einer Klimaanlage ist.Wärmetauscher sind Strukturen, die eine große Oberfläche benötigen, für die sie auf komplizierte, kurvige Innenkanäle angewiesen sind.Aber traditionelle Konstruktion und Fertigung sind in der Komplexität begrenzt, die sie liefern können, und bevorzugen tatsächlich einfachere Konstruktionen, um die Kosten niedrig zu halten.„Jede Sekunde werden zehn Klimaanlagen verkauft“, sagt Kayser.„Aber Klimaanlagen haben in den letzten dreißig Jahren immer gleich ausgesehen.“Die komplexen Designs, die für Wärmetauscher benötigt werden, sind jedoch Sweet Spots sowohl für KI-basiertes Design als auch für 3D-Druck.Neue Prototyp-Wärmetauscher sind in der Tat zur Anlaufstelle für Metalldruckereien geworden, die die Leistungsfähigkeit der Technologie demonstrieren wollen.Die Mission von Hyperganic ist es, „Innovationen in der Entwicklung physikalischer Dinge dramatisch zu beschleunigen“.Die meisten Innovationen der letzten Jahrzehnte seien im Bereich der Informationstechnologie gewesen, sagt er, während Autos, Flugzeuge und Geräte weitgehend wie ihr ursprüngliches Selbst bleiben.Die KI-basierte Designplattform von Hyperganics ermöglicht es Ingenieuren, Wärmetauscher mit radikal unterschiedlichen Strukturen herzustellen, wobei Elemente verwendet werden, die von den komplizierten Designs der Natur wie Korallen inspiriert sind, sagt Kayser.Durch die Vergrößerung der Oberfläche und die Optimierung der Luftführung steigern diese Konstruktionen die Energieeffizienz des Bauteils.„Wir nehmen Wissen aus der Technik über den Bau eines Wärmetauschers, aber jetzt können Sie es automatisch tun“, sagt er.„Sie können schneller erstellen, testen und iterieren.“Hyperganic hat zuvor dieses komplexe 3D-gedruckte Aerospike-Raketentriebwerk entwickelt.HyperganicEin typisches Beispiel: das weltweit größte gedruckte Aerospike-Raketentriebwerk, das im Mai von Hyperganic und EOS vorgestellt wurde.Aerospike-Triebwerke gelten allgemein als schwierige technische und fertigungstechnische Herausforderung.Die KI-Algorithmen von Hyperganic haben innerhalb weniger Tage Hunderte von Designs erstellt.Das beste Design wurde auf der Laser-Pulverbett-Schmelzmaschine von EOS gedruckt, die Laser verwendet, um Metallpulver Schicht für Schicht zu erhitzen und zu verschmelzen, um Teile zu bauen.Klimainnovationen sind eine Priorität für eine sich erwärmende, energiehungrige Welt.Neuartige Technologien wie thermoelektrische Materialien und passive Strahlungskühlung, die Wärme direkt in den Weltraum sendet, sind aufregend, aber es könnte viele Jahre dauern, bis sie kommerziell rentabel sind.Hyperganic tut nichts so Radikales, dass es kurzfristig unpraktisch wäre.„Was wir tun, ist keine Raketenwissenschaft“, sagt Kayser.„Wir versuchen, fortschrittliche Fertigungsmöglichkeiten und KI zusammenzubringen.Es ist nicht so kompliziert, wie etwas ganz anderes zu erfinden.“Er fügt hinzu, dass das Unternehmen bereits viele neue Designs für einen neuen A/C-Wärmetauscher und Leistungsdaten zu einigen hat.Bis zur UN-Klimakonferenz in Dubai im nächsten Jahr soll ein Prototyp fertig sein.Erkunden Sie die Grundlagen von Digitalisierern, Pulserkennung, Peer-to-Peer-Streaming und mehrTauchen Sie ein in die Welt der Digitalisierer und erfahren Sie, wie Ihre Anwendung davon profitieren kann.Erkunden Sie die Grundlagen von Digitalisierern, Pulserkennung, Peer-to-Peer-Streaming und mehr.Egal, ob Sie Wissenschaftler, Ingenieur, Student sind oder mehr über die umfassende Wissensdatenbank von Teledyne SP Devices erfahren möchten, es ist für jeden etwas dabei.Melden Sie sich jetzt für diese kostenlosen Webinare an!