You are viewing a single thread.
View all comments View context
1 point
*

Ich stimme dir bei allem zu, aber woher kriegt Lauterbach so einen mächtigen Integrationstest für ein Konstrukt (große Sprachmodelle und ähnliche KIs), deren Indeterminismus ja die Herausforderung ist?

Wenn die jetzt erst einmal mit synthetischen Daten ein Model trainieren und dann die generierten Ausgaben testen wollen, dann muss man ja beweisen können, dass man jede Kombination bedacht hat. Es reicht ja nicht, einfach nur die Ausgabequalität zu erhöhen, was ja das ist wofür solche Test für LLMs geschrieben werden.

permalink
report
parent
reply
2 points
*

aber woher kriegt Lauterbach so einen mächtigen Integrationstest

Es reicht, wenn das in Ausschreibungstexten oder Verordnungen steht.

Wenn die jetzt erst einmal mit synthetischen Daten ein Model trainieren

Du stellst dir das zu kompliziert vor. Man trainiert nicht nur ein Modell, man testet ALLES komplett. Also z.B. auch die Datenweitergabe in die USA. Wenn dann jemand am anderen Ende private/geheime synthetische Daten extrahieren kann, ist nichts wichtiges verloren.

Abgesehen davon weiß momentan vermutlich kaum jemand, was konkret geplant ist. Dafür muss man vermutlich noch auf Konkretes warten. Das war ja nur eine Ankündigung bisher.

permalink
report
parent
reply
1 point

Ich rede hier über die KI selbst und nicht was mit den Daten vor der Eingabe bzw. nach der Ausgabe geschieht. Und da ist das Testen weder trivial noch lange nicht vollständig gelöst. Es einfach zu fordern hilft da wenig.

Daher muss mMn immer davon ausgegangen, dass solche KI es schafft Daten zu deanonymisieren. Entsprechend muss auch die Verantwortung für und Transparenz über deren Nutzung sowie der gesammelten Eingabedaten strikt reguliert werden, wovon wir ja auch noch weit entfernt sind.

permalink
report
parent
reply
1 point

und nicht was mit den Daten vor der Eingabe bzw. nach der Ausgabe geschieht

Das ist aber das einzig relevante. Ein Modell selbst enthält nie wirklich schützenswerte Daten im Sinne des Datenschutz.

muss mMn immer davon ausgegangen, dass solche KI es schafft Daten zu deanonymisieren

Deswegen wird vorher getestet. Aber mit synthetischen Daten.

Entsprechend muss auch die Verantwortung für und Transparenz

Da bin ich voll bei dir. Wird auch gemacht soweit das technisch machbar und sinnvoll ist.

über deren Nutzung sowie der gesammelten Eingabedaten strikt reguliert werden, wovon wir ja auch noch weit entfernt sind.

Was würdest du vorschlagen, was über die EU Initiative hinaus geht?

permalink
report
parent
reply

DACH - jetzt auf feddit.org

!dach@feddit.de

Create post

Diese Community wird zum 01.07 auf read-only gestellt. Durch die anhäufenden IT-Probleme und der fehlende Support wechseln wir als Community auf www.feddit.org/c/dach - Ihr seid herzlich eingeladen auch dort weiter zu diskutieren!

Das Sammelbecken auf feddit für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

Eine ausführliche Sidebar findet ihr hier: Infothread: Regeln, Feedback & sonstige Infos

Auch hier gelten die Serverregeln von https://feddit.de !

Banner: SirSamuelVimes

Community stats

  • 1

    Monthly active users

  • 6.1K

    Posts

  • 76K

    Comments