Bereitstellung eines Open-Source-Torrents für CPUs und KI-Engines
Wenn man die Kräfte von Open Source und die umfassende und tiefe Halbleitererfahrung des legendären Chiparchitekten Jim Keller kombiniert, wird mit Sicherheit etwas Interessantes passieren. Und genau das ist der Plan des KI-Startups und jetzigen CPU-Herstellers Tenstorrent.
Tenstorrent wurde 2016 von Ljubisa Bajic, Milos Trajkovic und Ivan Hamer gegründet und hat seinen Hauptsitz in Toronto. Keller war von Anfang an ein Angel-Investor und Berater des Unternehmens und wurde im Januar 2021 zum Chief Technology Officer ernannt, nachdem er zuvor im Servergeschäft von Intel gearbeitet hatte, wo er einige Architektur- und Prozessprobleme beseitigte, wie er es bereits unter einem Jahr getan hatte vorheriger Job bei AMD. Im Januar dieses Jahres wurde Keller als Nachfolger von Bajic als Chief Executive Officer ausgewählt, und das Unternehmen gibt heute bekannt, dass es zwischen 120 und 150 Millionen US-Dollar im Rahmen seiner Series-D-Finanzierung einbringen wird, wobei die Hyundai Motor Group und der Samsung Catalyst Fund an der Spitze stehen die Runde und mit früheren Investoren Fidelity Ventures, Eclipse Ventures, Epiq Capital, Maverick Capital und anderen, die Geld einstreichen. Bis heute wird dies die Investitionssumme auf über 384,5 Millionen US-Dollar belaufen und die Bewertung wahrscheinlich auf über 1,4 Milliarden US-Dollar steigern.
All dieses Geld ist interessant und notwendig, um die beträchtliche Menge an technischer Arbeit zu finanzieren, die das Tenstorrent-Team leisten muss, um eine Reihe kommerzieller RISC-V-Serverprozessoren und KI-Beschleuniger zu entwickeln, die ihnen entsprechen und, was noch wichtiger ist, sie übernehmen zur Hegemonie der Nvidia-GPU im KI-Training. Es wird Geld kosten – und vielleicht noch viel mehr Geld, vielleicht auch nicht –, um Unternehmen dabei zu helfen, die Kosten für die KI-Schulung zu senken. Was wir wissen ist, dass Keller glaubt, dass er genau das richtige Team dafür hat, und wir haben uns mit ihm über die Tenstorrent-Mission unterhalten, auf die wir uns schon lange gefreut haben.
Im Anschluss werden wir uns eingehend mit den Tenstorent-CPU- und KI-Engine-Architekturen befassen.
Timothy Prickett Morgan: Kommen wir gleich zur Verfolgungsjagd. Ich wollte Ihnen diese Frage unbedingt stellen, weil Ihre Antwort wichtig ist. Warum zum Teufel brauchen wir einen weiteren KI-Beschleuniger?
Jim Keller:Nun, die Welt verabscheut Monopole.
TPM: Ja, aber wir haben bereits so viele verschiedene Unternehmen im Spiel. Nichts davon hat zu meiner Zufriedenheit funktioniert. Es ist nicht so, dass die Groq-Leute die TPU-Idee übernommen und kommerzialisiert hätten, dann sind wir fertig. Es ist nicht wie MapReduce und Yahoo Hadoop. Nirvana Systems und Habana Labs hatten meiner Meinung nach beide gute Architekturen, und Intel hatte mit beiden keinen großen Erfolg. Graphcore und SambaNova sind vernünftig, Cerebras hat Waferscale und das ist interessant. Esperanto ist mit RISC-V auch dabei. Und soweit ich das beurteilen kann, hat jeder ein Milliarden-Dollar-Problem, um auf die nächste Stufe zu gelangen. Ich weiß, dass RISC-V wichtig ist, dass es das Linux der Hardware ist, und wir haben lange auf diesen Moment gewartet. Die Verwendung von RISC-V zum Bau eines Beschleunigers ist der einfache Teil der Architekturentscheidung.
Was kann Tenstorrent anders und besser machen? Ich erwarte nicht, dass Sie heute alles über Architektur verraten, aber was treibt Sie an und warum?
Jim Keller: Es gibt eine Menge Dinge. Erstens: Wenn es einen großen Hype-Zyklus gibt, erhalten mehr Menschen Investitionen, als von der Branche angemessen unterstützt werden können. Ljubisa Bajic, eine der Mitbegründerinnen von Tenstorrent, und ich unterhielten uns lange, denn damals hatten SambaNova und Cerebras sehr hohe Bewertungen. Sie sammelten also viel Geld und begannen, viel Geld auszugeben, und wir taten das Gegenteil. Beim letzten Mal hatten wir nach der Finanzierungsrunde eine Bewertung von 1 Milliarde US-Dollar und uns wurde bei höheren Bewertungen mehr Geld angeboten. Und dann dachten wir: Was dann? Down-Runden wie alle anderen? Das ist wirklich hart für Ihr Unternehmen. Als würde es sowohl Ihre Mitarbeiter als auch Ihre Investoren in eine schlechte Lage bringen. Deshalb haben wir weniger Geld zu einer niedrigeren Bewertung eingesammelt, weil wir langfristig am Projekt interessiert sind.
Nun haben wir analysiert, was Cerebras, Graphcore, SambaNova, Groq und die anderen tun, und sie alle haben etwas Interessantes, sonst würden sie keine Finanzierung bekommen.
Man kann sagen: Nun ja, wir werden diese Fehler nicht machen und wir haben etwas auf den Tisch zu bringen.
Ich glaube nicht, dass GPUs das A und O für die Ausführung von KI-Programmen sind. Jeder, der ein KI-Programm beschreibt, beschreibt ein Diagramm, und das Diagramm muss mit interessanten Softwaretransformationen abgesenkt und auf die Hardware abgebildet werden. Das erweist sich aus mehreren Gründen als viel schwieriger, als es offensichtlich ist. Aber wir haben das Gefühl, dass wir dabei tatsächlich echte Fortschritte machen. So können wir einen KI-Computer entwickeln, der leistungsstark ist, gut funktioniert und skalierbar ist. Wir kommen dorthin.
Die andere Sache ist, dass wir mit der Entwicklung eines RISC-V begonnen haben – und wir bei Tenstorrernt haben lange darüber gesprochen – und wir glauben, dass die Zukunft hauptsächlich KI sein wird. Es wird eine Interaktion zwischen Allzweck-CPUs und KI-Prozessoren sowie diesem Programm- und Software-Stack geben, und sie werden auf demselben Chip sein. Und dann wird es in diesem Bereich jede Menge Innovationen geben. Und ich rief meine guten Freunde bei Arm an und sagte, dass wir es lizenzieren wollen, aber es sei zu teuer und sie wollten es nicht ändern. Deshalb haben wir uns entschieden, unseren eigenen RISC-V-Prozessor zu bauen. Und wir haben in der letzten Runde teilweise Geld gesammelt, weil wir davon ausgehen, dass RISC-V interessant ist.
Als wir den Kunden davon erzählten, waren wir etwas überrascht – positiv überrascht –, dass die Leute den RISC-V-Prozessor eigenständig lizenzieren wollten. Und dann haben wir auch festgestellt, dass einige Leute, die sich für RISC-V interessierten, auch an unserem geistigen Eigentum an der KI interessiert sind. Wenn Sie sich das Geschäftsmodell von Nvidia, AMD, Habana usw. ansehen, lizenzieren sie ihr geistiges Eigentum an niemanden. Also sind die Leute zu uns gekommen und haben uns gesagt, dass sie daran interessiert sind, die IP, sowohl die CPU als auch den KI-Beschleuniger, zu lizenzieren, um ihre eigenen zu bauen, wenn wir nachweisen können, dass unsere CPU oder unser KI-Beschleuniger funktioniert – und der Beweis dafür ist Silizium, das läuft Produkte.
Das Coole an der Entwicklung eines eigenen Produkts ist, dass man es besitzen und kontrollieren kann und nicht 60 oder 80 Prozent der Bruttomarge an jemand anderen zahlen muss. Wenn uns also Leute erzählen, dass Nvidia bereits gewonnen hat, und fragen, warum Tenstorrent konkurrieren sollte, dann deshalb, weil immer dann, wenn es ein Monopol mit wirklich hohen Margen gibt, Geschäftsmöglichkeiten entstehen.
TPM: Dies ist ein ähnlicher Streit, der derzeit zwischen InfiniBand, das von Nvidia kontrolliert wird, und dem Ultra Ethernet Consortium geführt wird. Die Leute sagen mir immer wieder, dass Ethernet seit seiner Geburt versucht hat, InfiniBand zu zerstören. Und ich erinnere sie daran, dass sie nicht mit InfiniBand konkurrieren, weil es im Sterben liegt und zum ersten Mal seit zweieinhalb Jahrzehnten floriert. Das Gleiche gilt für Intel-CPUs im Rechenzentrum. Es gab keine Möglichkeit, dass die Data Center Group auf lange Sicht ein Betriebsergebnis von 50 Prozent halten würde. Diese Art von Gewinn zieht den Wettbewerb nicht nur an, er befeuert ihn auch.
Jim Keller: In der Realität liegt die tatsächliche Bruttomarge immer irgendwo dazwischen. Wenn Sie weit unter 10 Prozent gehen, werden Sie wirklich Schwierigkeiten haben, Geld zu verdienen, und wenn Sie über 50 Prozent gehen, werden Sie Konkurrenz hervorrufen.
Hinzu kommt die Open-Source-Perspektive zu all dem. Das Coole an Open Source ist, dass Menschen einen Beitrag leisten können. Und dann haben sie auch die Möglichkeit, es zu besitzen oder eine Kopie davon zu nehmen und interessante Dinge zu tun. Die Herstellung von Hardware ist teuer, das Herausnehmen ist schwierig. Aber es gibt ziemlich viele Leute, die ihre eigenen Chips bauen und etwas unternehmen wollen.
Hier ist meine These: Wir werden anfangen, immer mehr Code mit KI zu generieren, und dann sind die KI-Programme eine Interaktion zwischen Allzweck-Computing und AI-Computing, das wird eine ganz neue Innovationswelle hervorbringen. Und KI war insofern ziemlich einzigartig, als sie mit Modellen und Frameworks erstaunlich offen war – und dann auf sehr proprietärer Hardware läuft.
TPM:Viele der Frameworks und Modelle sind nicht Open Source, und selbst diejenigen, die es sind, unterliegen manchmal kommerziellen Einschränkungen, wie LLaMA, oder wurden geschlossen, wie OpenAI beim Übergang von GTP-3 und GPT-3.5 zu GPT-4.
Jim Keller:Ja, es gab sehr unebenes Gelände, da stimme ich zu.
TPM: Aber ich stimme zu, es gab bei all dem eine gewisse Offenheit. Ich würde etwas Ähnliches sagen wie vor Jahrzehnten bei relationalen Datenbanken.
Hier stellt sich also die Frage zu offener Hardware: Wenn Sie einen RISC-V-Prozessor erstellen, müssen Sie dann alles zurückgeben? Was ist das Lizenzmodell?
Jim Keller: Hier ist die Linie, die wir gehen. RISC-V ist eine Open-Source-Architektur, wir haben Leute, die zu dieser Architekturdefinition beitragen. Das Referenzmodell ist Open Source, der Typ, der den Whisper-Befehlssatzsimulator geschrieben hat, arbeitet für uns. Wir haben eine Vektoreinheit erstellt und diese beigesteuert. Wir haben eine RTL-Version einer Vektoreinheit erstellt und diese dann als Open Source bereitgestellt. Wir haben mit einer Reihe von Studenten gesprochen und sie sagten, die Infrastruktur sei gut, aber wir bräuchten mehr Testinfrastruktur. Deshalb arbeiten wir daran, unsere RTL-Verifizierungsinfrastruktur als Open Source bereitzustellen.
Das RISC-V besitzt nun die universitäre Forschung für Computerarchitektur. Es ist de facto die Standardeinstellung. Unser KI-Prozessor verfügt über eine RISC-V-Engine und wir haben versucht herauszufinden, wie wir einen RISC-V-KI-Prozessor als Open Source bereitstellen können. Studierende wollen experimentieren können; Sie möchten etwas herunterladen, simulieren, Änderungen vornehmen und versuchen, es zu ändern. Und so haben wir einen Software-Stack auf unserer Engine, den wir bereinigen, damit wir ihn als Open Source veröffentlichen können, was wir dieses Jahr tun werden. Und dann hat unsere Hardware-Implementierung zu viele, sagen wir mal, schmutzige Teile in der Hardware – Sie wissen schon, proprietäre Dinge. Und wir versuchen herauszufinden, wie man eine abstrakte Version erstellt, bei der es sich um einen ziemlich sauberen RISC-V-KI-Prozessor handelt. Und ich würde das gerne als Open Source anbieten, denn das Coole an Open Source ist, dass es wächst, sobald die Leute damit anfangen und dazu beitragen. Open Source ist in dieser Hinsicht eine Einbahnstraße: Als die Leute zu Linux wechselten, kehrte niemand zu Unix zurück.
Ich denke, wir sind bei etwa 1 bis vielleicht 5 Prozent auf dem Weg in die KI-Reise. Ich denke, es wird so viele Experimente geben und Open Source bietet den Menschen die Möglichkeit, einen Beitrag zu leisten. Stellen Sie sich fünf Jahre zurück vor, es gäbe eine Open-Source-KI-Engine. Anstatt fünfzig zufällige verschiedene Dinge zu tun, die nicht funktionierten, stellen Sie sich vor, sie würden ihre eigenen zufälligen Versionen einer Open-Source-Sache machen, aber einen Beitrag dazu leisten.
TPM: Und diese Open-Source-Sache hat funktioniert. Wie zum Beispiel GPT-3.
Jim Keller:Nun, oder dass das Netz all dieser Leute eine wirklich glaubwürdige Alternative zu Nvidia hervorgebracht hat, die funktioniert hat.
Ich habe mit vielen KI-Unternehmen gesprochen und als ich bei Tesla war, habe ich viele Motoren gesehen. Und in zwanzig Unternehmen würden 50 Leute zwei Jahre lang arbeiten und genau das Gleiche aufbauen, was die anderen neunzehn Unternehmen alle taten. Wenn das eine Open-Source-Entwicklung gewesen wäre, wäre das viel schneller gegangen.
Einige Open-Source-Inhalte wie PyTorch sind schon seit einiger Zeit offen, aber die Art und Weise, wie das Projekt lief, war nicht besonders gut, aber PyTorch 2.0 hat das behoben. TVM ist Open Source – wir nutzen es und es ist eigentlich ziemlich gut. Wir werden sehen, was mit Chris Lattners Unternehmen Modular AI und der Programmiersprache Mojo passiert. Er sagt, er werde Mojo als Open-Source-Lösung verwenden, das zusätzliche Software-Compiler-Transformationen durchführt. Aber wir haben darunter kein klares Ziel, das einiges davon antreibt. Und so habe ich heute gerade mit meinen Jungs darüber gesprochen, wie wir unser Referenzmodell bereinigen und daraus ein gutes Open-Source-KI-Engine-Referenzmodell machen können, dem die Leute einen Mehrwert verleihen können?
Und wieder einmal denke ich, dass wir uns in den ersten Anfängen darüber befinden, wie KI-Hardware gebaut werden soll.
TPM: Was ist Ihr Umsatzmodell? Sie werden Dinge bauen und verkaufen und Sie werden Dinge lizenzieren, nehme ich an?
Jim Keller: Wir bauen Hardware. Die ursprüngliche Idee war, dass wir diese großartige Hardware bauen würden. Letztes Jahr haben wir unsere ersten zehn Modelle zum Laufen gebracht. Wir dachten, wir hätten einen Weg zu vielleicht 30 bis 50 Modellen, aber wir sind irgendwie ins Stocken geraten. Deshalb haben wir uns entschieden, den Code umzugestalten – wir haben zwei große Änderungen an unserem Software-Stack vorgenommen. Und wir integrieren jetzt einige Kunden in die von uns gebaute Hardware. Wir haben mit LG eine Ankündigung gemacht, dass mehrere weitere KI-Unternehmen in Planung sind. Dann haben wir diese RISC-V-CPU gebaut, die sehr hochwertig ist. SiFive ist ein gutes Unternehmen, aber ihre Projekte liegen eher im Mittelfeld, Ventana liegt etwas darüber. Und die Leute sagten uns immer wieder: Wir hätten gerne eine sehr hochwertige CPU. Wir bauen also eine sehr hochwertige CPU und verhandeln derzeit mit zehn Organisationen über die Lizenzierung dieser.
Wir sind ein Designunternehmen. Wir entwerfen eine CPU, wir entwerfen eine KI-Engine, wir entwerfen einen KI-Software-Stack.
Ob es sich also um Soft-IP, ein Hard-IP-Chiplet oder einen kompletten Chip handelt, das sind Implementierungen. In dieser Hinsicht waren wir flexibel. Beispielsweise werden wir die CPU mehrfach lizenzieren, bevor wir unseren eigenen Chiplet herausnehmen. Wir sprechen mit etwa einem halben Dutzend Unternehmen, die kundenspezifische Speicherchiplets oder NPU-Beschleuniger herstellen möchten. Ich denke, für unsere nächste Generation, sowohl CPU als auch KI, werden wir CPU- und KI-Chiplets bauen. Aber dann werden andere Leute andere Chiplets machen. Und dann fügen wir sie zu Systemen zusammen.
TPM:Sie kümmern sich um die Montage und die Systeme, und alles, woran Sie nicht interessiert sind, ist im wahrsten Sinne des Wortes die Herstellung eines Pakets, das Sie an Hewlett Packard, Dell oder wen auch immer verkaufen?
Jim Keller: Mal sehen was passiert. Das Seltsame ist, man muss es wirklich bauen, um es zu zeigen. Die Leute sagen, ich würde wirklich gerne eine Milliarde davon bauen, also zeigen Sie mir 1.000. Also bauen wir eine kleine Cloud, wir haben 1000 unserer KI-Chips in der Cloud. Als wir anfingen, wollten wir einfach die Chips in Server stecken und den Leuten Zugang gewähren. Es ist wirklich einfach. Es läuft Linux oder Sie können Bare-Metal verwenden.
TPM: Das war meine nächste Frage. Wenn Sie sich Unternehmen wie Cerebras und SambaNova ansehen, werden sie tatsächlich zu Cloud-Anbietern oder Lieferanten für bestimmte Cloud-Anbieter, die nach einer Nische suchen und auch nach einer Möglichkeit, KI kostengünstiger und einfacher als mit GPUs von Nvidia umzusetzen. Meiner Berechnung zufolge bräuchte man etwa eine Milliarde US-Dollar, um ein KI-Modell der nächsten Generation zu trainieren, und das Geld muss irgendwoher kommen, oder es muss ein Weg gefunden werden, es billiger zu machen.
Jim Keller: Ich würde sagen, etwa die Hälfte der KI-Software-Startups weiß nicht einmal, dass man Computer kaufen kann. Wir sprechen mit ihnen, wecken ihr Interesse und dann fragen sie, ob sie es in der Cloud ausprobieren können. Auf der anderen Seite stellen Unternehmen mit zunehmender Skalierung fest, dass sie für die Ausführung von KI in den Clouds dreimal oder mehr bezahlen als in ihren eigenen Rechenzentren – das hängt davon ab, was Sie kaufen und wie hoch Ihre Amortisationszeit ist. Es ist wirklich teuer.
Wenn wir eine überzeugende CPU und einen KI-Beschleuniger entwerfen, gibt es Kanäle zum Markt: IP, Chiplets, Chips, Systeme und Cloud. Es sieht so aus, als ob man, um zu beweisen, was man tut, Chips, Systeme und Clouds herstellen muss, um den Menschen Zugriff darauf zu ermöglichen. Und dann ist der entscheidende Punkt: Können Sie ein Unternehmen aufbauen, ein Ingenieurteam aufbauen, Geld sammeln und Einnahmen generieren? Unsere Investoren sagen meistens, wir brauchen Sie nicht, um eine Milliarde Dollar zu verdienen, wir müssen Dinge im Wert von mehreren zehn Millionen Dollar verkaufen, um zu signalisieren, dass die Kunden dafür bezahlen werden – dass es funktioniert und dass sie es wollen. Und das ist die Mission, die wir gerade verfolgen.
Wir sind auf der Reise. Ich habe kürzlich jemandem gesagt: Wenn etwas nicht funktioniert, hat man ein wissenschaftliches Projekt; Wenn die Dinge funktionieren, haben Sie ein Tabellenkalkulationsproblem. Eine Tabellenkalkulation sieht so aus. Unsere aktuellen Chips sind im 12-Nanometer-Format von Globalfoundries. Und jemand sagt, wie schnell wäre es, wenn man es auf 3 Nanometer portieren würde. Das ist kein Hexenwerk. Sie kennen die Leistung von GF12 und TSMC 5N, 5N und 3N, berechnen sie einfach aus und fragen dann: „Ist das ein überzeugendes Produkt?“
Dachte ich, als ich anfing, dass wir all diese Dinge tun müssten? Nein nicht wirklich. Aber ist es dann überraschend, dass man als Unternehmen, das voll funktionsfähige Computer verkauft, alles selbst erledigen muss? Deshalb habe ich immer gescherzt, dass es bei der Entwicklung eines Produkts die 80/20-Regel gibt, die besagt, dass 20 Prozent des Aufwands 80 Prozent der Ergebnisse sind. Und dann gibt es noch die 100-Prozent-Regel, die besagt, dass man 100 Prozent der Dinge tun muss, die Kunden brauchen, um erfolgreich zu sein.
TPM: In der modernen Zeit müssen Unternehmen nicht alles Interessante kaufen, um zu sehen, was wirklich funktioniert und was nicht. Das ist also eine Verbesserung. Doch unabhängig vom Einsatzmodell sind die Kosten für die KI-Schulung sehr hoch.
Jim Keller: Dies gilt immer während eines Boomzyklus. Ich habe mit mehreren VCs gesprochen, die sagen, dass sie 50 Millionen US-Dollar für ein KI-Software-Startup sammeln und 40 Millionen US-Dollar davon letztendlich an Nvidia gehen werden. Wenn Sie in Eile sind, ist das eine gute Antwort. Und dann denken Sie: Nun, ich könnte für 10 Millionen US-Dollar die gleiche Leistung von Tenstorrent bekommen, aber Sie müssen viel mehr Arbeit leisten. Und dann reden wir über den Zeitwert des Geldes, und dann geben sie das Geld jetzt aus. Aber wenn der Hype-Zyklus nachlässt und die Leute sich fragen, warum sie so viel Geld für Dinge ausgeben? Was sind glaubwürdige Alternativen? Wie senken wir die Kosten?
TPM: Du wirst dort stehen. Wie viel können Sie die Kosten für das KI-Training mit Tenstorrent-Chips senken?
Jim Keller:Unser Ziel ist ein 5- bis 10-facher Preisvorteil.
TPM:Um genau zu sein: 5- bis 10-mal günstiger als GPU-Systeme mit ähnlicher Leistung.
Jim Keller: Ja. Dafür gibt es einige technische Gründe. Wir verbrauchen deutlich weniger Speicherbandbreite, da wir über einen Graph-Compiler verfügen und unsere Architektur eher einer Datenflussmaschine als GPUs ähnelt, sodass wir Daten von einem Verarbeitungselement an ein anderes senden können. Sobald Sie einen HBM-Silizium-Interposer verwenden, wird es sehr teuer. Eines der Dinge, die derzeit verrückt sind, ist, wenn man sich Nvidias Preisaufschlag für eine H100 SXM5 ansieht, dass der Großteil des Siliziumanteils von Samsung oder SK Hynix stammt. Die HBM-DRAMs bieten mehr Wert als das Nvidia-GPU-Silizium. Und außerdem: Wenn Sie Ihr eigenes Produkt entwickeln möchten, wird Nvidia Ihnen dann einen IP-Block verkaufen oder ihn für Sie anpassen? NEIN.
TPM: Haben Sie Lust auf Networking oder konzentrieren Sie sich nur auf die Datenverarbeitung? Ich hoffe, dass Sie hier die richtige Antwort geben.
Jim Keller: Wir haben Netzwerkanschlüsse auf unseren Chips, sodass wir sie in großen Arrays zusammenschließen können, ohne den Switch eines anderen zu nutzen. Dies ist einer der Gründe, warum unser Ansatz technisch gesehen günstiger ist als der Ansatz von Nvidia. Nvidia verkauft gerne margenstarke InfiniBand-Switches. Wir bauen eine Box, wo wir das nicht brauchen.
In der aktuellen Situation ist Nvidia ein großer Margenbringer. In unserer Situation fragen wir uns, warum Sie einen InfiniBand-Switch zwischen ein paar hundert Chips platzieren sollten. Warum lassen Sie die Chips nicht einfach direkt miteinander kommunizieren? Ich habe mit ein paar wirklich coolen Speicher-Startups mit wirklich interessanten Produkten gesprochen, und dann erzählten sie mir, dass es ihre Mission sei, wirklich hohe Margen zu erzielen. Ich sage ihnen, dass es unsere Mission ist, die Kosten dafür wirklich zu senken. Sie müssen Ihre Mission auswählen.
Wenn also jemand zu mir kommt und die Rechte an unserer Technologie lizenzieren möchte, damit er sie modifizieren und seine eigenen Produkte bauen kann, halte ich das für eine großartige Idee, denn ich denke, die Innovation wird sich beschleunigen, wenn mehr Menschen in der Lage sind, etwas Solides zu nehmen, und dann daran arbeiten. Und das liegt zum Teil daran, dass ich zuversichtlich bin, dass wir von jedem, mit dem wir zusammenarbeiten, lernen werden. Wir haben einige wirklich gute Designer und denken intensiv an unsere nächste Generation.
TPM: Wie schafft man es also, Arm zu sein, bevor SoftBank es erworben hat, und nachdem SoftBank es erworben hat und Nvidia es verfolgt hat? Du willst Arm sein, nicht verdrehter Arm.
Jim Keller:Im Moment sind wir ein durch Risikokapital finanziertes Unternehmen, und unsere Investoren möchten, dass unsere Technologie funktioniert, und möchten ein positives Signal für unsere Fähigkeit, Produkte herzustellen und zu verkaufen, worauf wir uns konzentrieren.
Wir haben gerade aus zwei verschiedenen Gründen eine Runde mit Samsung und Hyundai abgeschlossen.
Samsung kennt mich ziemlich gut, weil ich mit ihnen bei Digital Equipment, Apple, Tesla und Intel Produkte entwickelt habe – und sie waren alle erfolgreich. Sie interessieren sich für Server-Silizium, für autonomes Fahren und KI-Silizium. RISC-V wird also ein Umsatzbringer sein, und sie wollen in diesen investieren.
Hyundai kam aus den Gesprächen, die wir mit jedem Automobilunternehmen auf der Welt führen, und alle sind der Meinung, dass die Branche etwas gegen den Einfluss von Mobileye und Nvidia auf sie unternehmen muss. Sie möchten Optionen haben, und viele der Automobilhersteller möchten ihre eigenen Lösungen besitzen. Hyundai interessierte sich sehr für uns und sagte, dass sie investieren wollten, und sie sind zum drittgrößten Autohersteller geworden, haben gerade Boston Dynamics gekauft und arbeiten über Motional mit Aptiv zusammen. Sie verdienen Geld mit dem Bau von Autos und anderen Produkten und sind sehr zukunftsorientiert.
In einem Umfeld, in dem es schnelle Veränderungen geben wird, baut man ein Team um großartige Leute auf und sammelt dann Geld. Wir sammeln über 100 Millionen US-Dollar in einer Aufwärtsrunde, in einem schwierigen Markt, und um ehrlich zu sein, hat der Abschluss viel länger gedauert als beim letzten Mal, das ist sicher. Ich arbeite gerne mit Samsung zusammen, ich hatte viel Erfolg mit ihnen. Sie sind eine gute, solide Fabrik. Sie verfügen über ein großes IP-Portfolio und wir werden ihnen dabei helfen, ein Premiumprodukt zu entwickeln und auf den Markt zu bringen. Die Hyundai-Leute sind großartig und ich habe mit vielen Leuten gesprochen. Sie sind superschlau. Sie wollen Chips bauen, sie wollen schnell sein. Es gibt viele Möglichkeiten.
Mit Highlights, Analysen und Geschichten der Woche direkt von uns in Ihren Posteingang, ohne dass etwas dazwischen liegt. Jetzt abonnieren
Timothy Prickett Morgan:Jim Keller:TPM:Jim Keller:TPM:Jim Keller:TPM:Jim Keller:TPM:Jim Keller:TPM:Jim Keller:TPM:Jim Keller:TPM:Jim Keller:TPM:Jim Keller:TPM:Jim Keller:TPM:Jim Keller:TPM:Jim Keller:TPM:Jim Keller:TPM:Jim Keller: