• Suche
  • Deine Referendarswelt
    • Juristenkoffer.de - Kommentare mieten
    • RefNews - Das Blog zum Referendariat
    • Infoseiten zum Referendariat
    • Referendarbuchladen - Bücher für Rechtsreferendare
    • Stationsradar.de - Stationsangebote u. Nebenjobs
    • Protokolle-Assessorexamen.de - Protokolle für das 2. Examen
    • Referendarswelt - Die Stadt für Rechtsreferendare
    • Infoseiten: Richter / Staatsanwalt werden
Einloggen oder Registrieren » Hallo, Gast! Auch als Gast kannst Du Beiträge posten. Besser nutzbar ist das Forum aber, wenn Du Dich registrierst und einloggst.
Login
Benutzername/E-Mail:
Passwort: Passwort vergessen?
 
  1. Startseite
  2. Zur letzten Instanz - Das Forum für Rechtsreferendare
  3. Instanzen für Rechtsreferendare
  4. Obiter dictum - Sonstiges
  5. AI im Kanzleialltag
« 1 2 3 4 5 ... 27 »
 
Antworten

 
AI im Kanzleialltag
JaM1e
Junior Member
**
Beiträge: 18
Themen: 0
Registriert seit: Nov 2023
#11
31.01.2024, 18:57
Das liest sich halt mal wieder so, ja wenn man alle Nachteile der Technologie, wie das systemimmanente Halluzinieren weglässt, dann wird sie uns gefährlich. In die Zukunft schauen, kann keiner der Kollegen, aber wir werden sehen was sie bringt.
Suchen
Zitieren
Patenter Gast
Senior Member
****
Beiträge: 640
Themen: 0
Registriert seit: Oct 2022
#12
31.01.2024, 18:58
(31.01.2024, 18:50)nachdenklich schrieb:  Danke für den Link. Der deckt sich fast zu 100% mit meinen (besorgten) Kommentaren in einem anderen Thread zu KI und den Auswirkungen auf den Rechtsdienstleistungsmarkt. Gerade was das exponentielle Entwicklungspotential von KI, die Auswirkung auf Billable hours und der zukünftige Bedarf an anwaltlicher Tätigkeit angeht. Ich war da ja mehr oder minder allein mit meiner Meinung.


Damit du nicht wieder Panik bekommst, hier die gegenteilige Aussage in einer aktuellen Studie der Stanford University:

"Hallucinating Law: Legal Mistakes with Large Language Models are Pervasive"

https://hai.stanford.edu/news/hallucinat...-pervasive

"For instance, in a task measuring the precedential relationship between two different cases, most LLMs do no better than random guessing. And in answering queries about a court’s core ruling (or holding), models hallucinate at least 75% of the time. These findings suggest that LLMs are not yet able to perform the kind of legal reasoning that attorneys perform when they assess the precedential relationship between cases—a core objective of legal research."

Viele Anwender von LLMs verwechseln leider weiterhin die sprachliche Qualität der LLMs mit der inhaltlichen Qualität. Die LLMs werden sich sicherlich noch verbessern, aber von einer sicheren Anwendung sind wir noch weit entfernt.
Suchen
Zitieren
nachdenklich
Senior Member
****
Beiträge: 497
Themen: 8
Registriert seit: Sep 2023
#13
31.01.2024, 19:06
(31.01.2024, 18:58)Patenter Gast schrieb:  
(31.01.2024, 18:50)nachdenklich schrieb:  Danke für den Link. Der deckt sich fast zu 100% mit meinen (besorgten) Kommentaren in einem anderen Thread zu KI und den Auswirkungen auf den Rechtsdienstleistungsmarkt. Gerade was das exponentielle Entwicklungspotential von KI, die Auswirkung auf Billable hours und der zukünftige Bedarf an anwaltlicher Tätigkeit angeht. Ich war da ja mehr oder minder allein mit meiner Meinung.


Damit du nicht wieder Panik bekommst, hier die gegenteilige Aussage in einer aktuellen Studie der Stanford University:

"Hallucinating Law: Legal Mistakes with Large Language Models are Pervasive"

https://hai.stanford.edu/news/hallucinat...-pervasive

"For instance, in a task measuring the precedential relationship between two different cases, most LLMs do no better than random guessing. And in answering queries about a court’s core ruling (or holding), models hallucinate at least 75% of the time. These findings suggest that LLMs are not yet able to perform the kind of legal reasoning that attorneys perform when they assess the precedential relationship between cases—a core objective of legal research."

Viele Anwender von LLMs verwechseln leider weiterhin die sprachliche Qualität der LLMs mit der inhaltlichen Qualität. Die LLMs werden sich sicherlich noch verbessern, aber von einer sicheren Anwendung sind wir noch weit entfernt.


"Not yet". Ich glaube einfach, dass hiet das exponentielle Entwicklungspotential von KI bzw LLMs unterschätzt wird. Ich habe zB auch mal auf ein Gutachen (glaube es war Harvard) Bezug genommen, die die Rechtsdienstleistungsbranche als besonders von KI bedroht ansieht und in naher Zukunft von einer "Industrialisierung" des Rechts ausgeht, wo jedermann kostengünstig Zugang zu den "sichersten" Vertragsentwürfe haben wird usw.

Halluzinationen sind nicht mit KI inhärent. Und wenn der einzige Unterschied zur Daseinsberechtigung noch die "Hoffnung" ist, dass Halluzinationen weiterhin bestehen...dann Prost..

Ich sage auch nicht, dass keine Juristen mwhr gebraucht werden. Ich bin nur der Meinung, dass zukünftig deutlich weniger Bedarf existieren wird. Auch der sich peu a peu durchsetzende Wegfall der billable hours wird viele Ksnzleien und Anwälte wirtschaftlich zusetzen.
(Dieser Beitrag wurde zuletzt bearbeitet: 31.01.2024, 19:11 von nachdenklich.)
Suchen
Zitieren
Gast4321x
Member
***
Beiträge: 92
Themen: 7
Registriert seit: Dec 2021
#14
31.01.2024, 19:10
(31.01.2024, 18:58)Patenter Gast schrieb:  
(31.01.2024, 18:50)nachdenklich schrieb:  Danke für den Link. Der deckt sich fast zu 100% mit meinen (besorgten) Kommentaren in einem anderen Thread zu KI und den Auswirkungen auf den Rechtsdienstleistungsmarkt. Gerade was das exponentielle Entwicklungspotential von KI, die Auswirkung auf Billable hours und der zukünftige Bedarf an anwaltlicher Tätigkeit angeht. Ich war da ja mehr oder minder allein mit meiner Meinung.


Damit du nicht wieder Panik bekommst, hier die gegenteilige Aussage in einer aktuellen Studie der Stanford University:

"Hallucinating Law: Legal Mistakes with Large Language Models are Pervasive"

https://hai.stanford.edu/news/hallucinat...-pervasive

"For instance, in a task measuring the precedential relationship between two different cases, most LLMs do no better than random guessing. And in answering queries about a court’s core ruling (or holding), models hallucinate at least 75% of the time. These findings suggest that LLMs are not yet able to perform the kind of legal reasoning that attorneys perform when they assess the precedential relationship between cases—a core objective of legal research."

Viele Anwender von LLMs verwechseln leider weiterhin die sprachliche Qualität der LLMs mit der inhaltlichen Qualität. Die LLMs werden sich sicherlich noch verbessern, aber von einer sicheren Anwendung sind wir noch weit entfernt.


Die Studie nutzte GPT3.5, nicht GPT4, d.h. sie basiert nicht auf dem aktuellen technischen Stand. Das ist relevant: GPT3.5 hat den Bar Exam nicht bestanden, mit Punktezahl unterhalb des Standards der 10% schwächsten menschlichen Kandidaten. GPT4 hat ihn mit einer Punktezahl bestanden, die besser als 90% derjenigen von menschlichen Kandidaten ist. 

 Ich würde mich da nicht entspannt zurücklehnen.
Suchen
Zitieren
nachdenklich
Senior Member
****
Beiträge: 497
Themen: 8
Registriert seit: Sep 2023
#15
31.01.2024, 19:13
(31.01.2024, 19:10)Gast4321x schrieb:  
(31.01.2024, 18:58)Patenter Gast schrieb:  
(31.01.2024, 18:50)nachdenklich schrieb:  Danke für den Link. Der deckt sich fast zu 100% mit meinen (besorgten) Kommentaren in einem anderen Thread zu KI und den Auswirkungen auf den Rechtsdienstleistungsmarkt. Gerade was das exponentielle Entwicklungspotential von KI, die Auswirkung auf Billable hours und der zukünftige Bedarf an anwaltlicher Tätigkeit angeht. Ich war da ja mehr oder minder allein mit meiner Meinung.


Damit du nicht wieder Panik bekommst, hier die gegenteilige Aussage in einer aktuellen Studie der Stanford University:

"Hallucinating Law: Legal Mistakes with Large Language Models are Pervasive"

https://hai.stanford.edu/news/hallucinat...-pervasive

"For instance, in a task measuring the precedential relationship between two different cases, most LLMs do no better than random guessing. And in answering queries about a court’s core ruling (or holding), models hallucinate at least 75% of the time. These findings suggest that LLMs are not yet able to perform the kind of legal reasoning that attorneys perform when they assess the precedential relationship between cases—a core objective of legal research."

Viele Anwender von LLMs verwechseln leider weiterhin die sprachliche Qualität der LLMs mit der inhaltlichen Qualität. Die LLMs werden sich sicherlich noch verbessern, aber von einer sicheren Anwendung sind wir noch weit entfernt.


Die Studie nutzte GPT3.5, nicht GPT4, d.h. sie basiert nicht auf dem aktuellen technischen Stand. Das ist relevant: GPT3.5 hat den Bar Exam nicht bestanden, mit Punktezahl unterhalb des Standards der 10% schwächsten menschlichen Kandidaten. GPT4 hat ihn mit einer Punktezahl bestanden, die besser als 90% derjenigen von menschlichen Kandidaten ist. 

 Ich würde mich da nicht entspannt zurücklehnen.


Und bald wird es sie nächste Version von GPT geben, die wiederum deutlich leistungsstärker sein wird. Ferner gibt es ja auch auf Jura zugeschnittene Modelle.
Suchen
Zitieren
Äfes
Member
***
Beiträge: 237
Themen: 2
Registriert seit: Jul 2022
#16
01.02.2024, 18:11
Habe vorhin versucht, ein Urteil für eine Zeitschrift zusammenfassen zu lassen. Ergebnis war leider nicht besonders tauglich. Vielleicht kriege ich ihn aber noch so weit.
Suchen
Zitieren
nachdenklich
Senior Member
****
Beiträge: 497
Themen: 8
Registriert seit: Sep 2023
#17
02.02.2024, 15:02
Also in meiner Region haben sich die Stellenangebote für RAe bzw Juristen deutlich reduziert. Das dürfte aber eher an der aktuellen wirtschaftlichen Lage liegen. Dies gilt gerade für Berufseinsteiger.

Interessant ist aber: der Bedarf und die Suche nach Refas ist weiterhin riesig. Obwohl man ja denken könnte, KI würdw gerade an dieser Stelle besonders effizient die Axt anlegen.
Suchen
Zitieren
Konova
Senior Member
****
Beiträge: 268
Themen: 21
Registriert seit: Jun 2023
#18
06.02.2024, 13:34
(02.02.2024, 15:02)nachdenklich schrieb:  Also in meiner Region haben sich die Stellenangebote für RAe bzw Juristen deutlich reduziert. Das dürfte aber eher an der aktuellen wirtschaftlichen Lage liegen. Dies gilt gerade für Berufseinsteiger.

Interessant ist aber: der Bedarf und die Suche nach Refas ist weiterhin riesig. Obwohl man ja denken könnte, KI würdw gerade an dieser Stelle besonders effizient die Axt anlegen.

Die meisten Kanzleien sind weder zu 100 % digital, noch überwiegend. Es wird noch viel mit Papierakten und postalischen Posteingängen gearbeitet. Eine bloß digitale Assistenz kann hier aktuell einfach noch nur begrenzt helfen.

Von der ganzen Fristenwahrungsproblematik und der damit verbundenen Verantwortung von ReFas und den Anwälten ganz zu schweigen; hier wird sich beim reißen einer Frist niemand hinter der KI verstecken können
Suchen
Zitieren
nachdenklich
Senior Member
****
Beiträge: 497
Themen: 8
Registriert seit: Sep 2023
#19
07.02.2024, 09:35
.
(Dieser Beitrag wurde zuletzt bearbeitet: 08.10.2024, 23:40 von nachdenklich.)
Suchen
Zitieren
nachdenklich
Senior Member
****
Beiträge: 497
Themen: 8
Registriert seit: Sep 2023
#20
10.02.2024, 13:57
.
(Dieser Beitrag wurde zuletzt bearbeitet: 08.10.2024, 23:40 von nachdenklich.)
Suchen
Zitieren
« Ein Thema zurück | Ein Thema vor »
« 1 2 3 4 5 ... 27 »
 
Antworten



 

Zur letzten Instanz

Das Forum "Zur letzten Instanz" ist das einzige Forum speziell für Rechtsreferendare. Diskutiere mit bei Fragen Rund um den juristischen Vorbereitungsdienst und zum Zweiten Staatsexamen!

Quick Links



Kontaktiere uns

E-Mail an uns  Datenschutzhinweise

Impressum 

Linearer Modus
Baumstrukturmodus