Möglicherweise Der Name von Jaan Tallinn ist Ihnen nicht bekannt, aber Sie haben wahrscheinlich seine Software verwendet mehr als einmal: Vor fast 20 Jahren entwickelte er zusammen mit Niklas Zennström und Janus Friis die Filesharing-Anwendung Kazaa, aus deren P2P-Technologie später Skype entstand, das er auch mitbegründete.

Als Skype 2005 von eBay gekauft wurde (Microsoft würde noch weitere 6 Jahre brauchen, um das Unternehmen zu übernehmen), Tallinn machte ein Vermögen, indem er alle seine Anteile verkaufte. Obwohl er nicht aufgehört hat, ein Technologieunternehmer zu sein (2012 gründete er das Unternehmen MetaMed für personalisierte Medizin), konzentrierten sich seine Bemühungen seitdem darauf, die Gefahren anzugehen, die mit der technologischen Entwicklung einhergehen.

Er hat diese Arbeit auf verschiedene Weise ausgeführt: hauptsächlich aus der Philanthropie heraus, aber auch als Berater des estnischen Präsidenten. Ja, obwohl es alte technologische Entwicklungen nicht verachtet, die uns immer noch bedrohen (sponsert das Bulletin of the Atomic Scientists, die wissenschaftliche Organisation, die für die Wartung der Weltuntergangsuhr verantwortlich ist), Ihre Aufmerksamkeit richtet sich auf die künstliche Intelligenz.

Dollar zur Finanzierung der „Werteangleichung“

Tallinn war einer der ersten Millionäre im Technologiesektor, der die Ansichten ernst nahm, die KI als potenzielle Bedrohung für die menschliche Existenz darstellten: Tatsächlich ist er überzeugt, dass wir eintreten die erste Phase der Menschheitsgeschichte, in der die Menschen nicht die dominierende Kraft auf unserem Planeten sein werden.

Aber vor allem, da alles darauf hindeutet, dass wir unsere Zukunft letztendlich in die Hände fortschrittlicher KI legen werden, verstehen Sie das Wir sollten absolut sicher sein, dass wir das erreichen, was oft als „Werteausrichtung“ bezeichnet wird.das ist,

„Hochautonome KI-Systeme sollten so konzipiert sein, dass ihre Ziele und Verhaltensweisen bei der Ausführung ihrer Operationen an menschlichen Werten ausgerichtet werden können. „

Der vorangehende Text ist aus den „23 Asilomar-Prinzipien“ entnommen, einem Dokument, das in der genannten kalifornischen Stadt während einer Konferenz des „Future of Life Institute“ erstellt wurde. eine von zwei von Tallinn selbst gegründeten wissenschaftlichen Einrichtungenzusammen mit dem CSER („Center for the Study of Existential Risk“).

Aber Tallinns philanthropische Arbeit beschränkt sich nicht nur auf diese beiden OrganisationenEs hat auch mehr als 600.000 US-Dollar an das MIRI (Machine Intelligence Research Institute, eine weitere Institution, die sich auf das Studium der „Werteausrichtung“ konzentriert) und mehr als 310.000 US-Dollar an das Future of Humanity Institute gespendet.

Das sagt Tallinn in einem gestern auf Vox.com veröffentlichten Interview Sein Interesse an diesen Themen begann, nachdem er die Theorien des Gründers von MIRI kennengelernt hatteder autodidaktische wissenschaftliche Autor und Forscher Eliezer Yudkowsky, den er vor einem Jahrzehnt zu lesen begann, während er in einen Rechtsstreit zwischen eBay und den Skype-Gründern verwickelt war.

Von diesem Moment an, überzeugt von Yudkowskys Argumenten (von ihm übernimmt er die Überzeugung über unseren bevorstehenden Verlust der Hegemonie als Spezies), führte er sich allmählich in die Philanthropie ein:

„Ich hatte die Politik, den Leuten nur kleine Geldsummen zu geben und zu sehen, was sie damit anstellen konnten, und dann habe ich mehr Unterstützung gegeben.“

Warum diese Sache verteidigen und nicht eine andere?

Seiner Meinung nach investiert er Geld in diese und andere mit „existenziellem Risiko“ verbundene Zwecke, weil er die drei von der Organisation Open Philanthropy festgelegten Kriterien erfüllt:

  • Lassen Sie die Ursache zählen. „Der Grund dafür ist, dass die anderen Ursachen davon ausgehen, dass wir nicht aussterben werden. […] Wer kümmert sich um Wirtschaftswachstum, wenn es keine Menschen gibt? „
  • Dass die Ursache vernachlässigt wird. „Das scheint der Fall zu sein, denn ein Freund hat letztes Jahr ausgerechnet, wie viele Forscher Vollzeit an der Reduzierung existenzieller Risiken arbeiten, und die Antwort, die er erhielt, war etwa ein Dutzend. Es scheint nicht wahrscheinlich, dass dies die optimale Menge für die Menschheit ist.
  • Machen Sie die Ursache „beherrschbar“. „Wir haben keine Beweise dafür, dass wir standardmäßig dem Untergang geweiht sind. Es scheint, als könnten wir das Ergebnis beeinflussen.“
  • Tallinn erklärt das ist nicht der Ansicht, dass der Kampf gegen den Klimawandel diese Merkmale aufweist („Wichtig? Sicher. Schlampig? Nicht wirklich. Beherrschbar? Weniger als KI-Risiko in diesem Stadium“) und dass er tatsächlich er vergleicht seine Sache gerne mit der ‚Alien-Bedrohung‘:

    „Denken Sie, dass wir herausgefunden haben, dass eine außerirdische Herrenrasse auf dem Weg zur Erde war und in 20 Jahren hierher kommen würde. Die KI-Situation ist ähnlich, aber mit einem wichtigen Unterschied: Wir sind die Schöpfer der KI. Und wir haben die Freiheit zu entscheiden, welcher Art von KI wir den Planeten aussetzen. „