Report
Hide text CSV Data Package Print
Active projects and challenges as of 22.01.2025 13:12.
4
Federal Supreme Court Data Viewer
Let's build a Shiny app for anyone to analyse data on Swiss Federal Supreme Court judgments! 📊
You can find the shiny app here: https://data-viewer-app.shinyapps.io/scd-viewer/
📎 SDC.pdf
scd-viewer
The Swiss Federal Supreme Court Dataset (SCD) is the largest open-access dataset on Swiss judgments, with 30 variables documenting all 113'367 Federal Supreme Court judgments since 2007.
With this challenge, we want to enable anyone to make their own quantitative analysis of this rich data, even if they have zero prior programming knowledge: We will build a Shiny app that lets users interact with the data on Swiss Federal Supreme Court judgments and run simple analyses themselves.
💡 Idea behind the challenge
The freshly released Swiss Federal Supreme Court Dataset includes all Swiss Federal Supreme Court judgments since 2007. It documents them with 30 variables, which contain case information, the area of law, information about the appealed judgment, the parties, the case outcome, or about citations and publication status.
The SCD enables high-quality quantitative insights into the jurisprudence of the highest Swiss court (see, for example, Merane 2021 or Geering 2021). However, using and analysing the dataset generally requires some knowledge of data science methods. The lack of quantitative methods in the current curricula of most Swiss law schools means that many lawyers, judges and jurists, as well as interested laypersons, currently can't use this data themselves.
Shiny apps such as the gorgeous CRAN Explorer, the highly functional ExPanD data explorer, or the highly intuitive Bolivia Life of Labor app inspire us. At the Open Legal Lab 2023, we want to create a Shiny app that enables anyone to create their own simple analysis of the Federal Supreme Court dataset, without needing programming knowledge or Excel tricks.
🎯 Goal of the challenge
Create and release a Shiny app that enables simple quantitative analyses of the Federal Supreme Court jurisprudence documented in the SCD without any programming knowledge.
🚀 Roadmap
This will have to be discussed at the hackathon.
- [x] Collect data
- [ ] Define main analysis types as use cases
- [ ] Create Shiny app
- [ ] Prepare presentation
- [ ] Deploy Shiny app
- [ ] ✨ Extra: Automatically integrate most recent judgments through SCD updates
- [ ] ✨ Extra: Translate user interface to German, French, Italian, Rumantsch
14
FEDLEXplorer
The purpose of this challenge is to demonstrate how federal legislation data can be used in third-party products through the SPARQL endpoint
We have combined forces with Living Topics #11 to develop an app that combines data from multiple APIs and SPARQL queries. It is a Proof of Concept for a brand new FEDLEX experience!
Details of the implementation:
Screenshots
CHALLENGE
Ziel dieser Challenge ist es zu demonstrieren, wie die Daten des Bundesrechts über den SPARQL-Endpunkt der Bundesrechtsplattform in Produkten Dritter verwendet werden können. Die BK veröffentlicht auf Fedlex die Liste der Rechtstexte, die an einem bestimmten Monat/Datum in Kraft treten. Über diese Website können die Nutzer sich informieren, wann was in Kraft tritt. Dies ist jedoch nicht ganz optimal, da sie die Fedlex-Website regelmäßig konsultieren müssen und keinen Filter setzen können. Die Liste der in Kraft tretenden Rechtstexte kann stattdessen über den SPARQL-Endpunkt der Bundesrechtsplattform abgerufen werden.
FEDLEXplorer
The purpose of this project is to demonstrate how Swiss federal legislation data can be used in third-party products through a SPARQL endpoint.
We are developing the frontend and backend in the respective subfolders.
In the data
folder you can find a SPARQL query and some sample outputs.
For more information see https://challenges.openlegallab.ch/project/81
19
Futuristic Contract For Love Relationships
Wellbeing and Mental Health Matters
Developing an app for couples to have a legal commitment which entitles to compensation for mental and emotional pain
- The language of love can be expressed in many different ways, every partner must say to which percentages words of affirmation, acts of service, physical touch, quality time, gift-giving are relevant
- The app should check what kind of relationship the two partners wish: for example monogamous or polyamorous relationship. If the both agree on it or they wish also casual sex relationships or on something else.
- The partners agree that lying and betraying entitles the other person to compensation for healing costs and emotional damages
5
Gateway to Legal Data
A unified search entry point into today's highly fragmented legal database landscape and a one-stop shop for legal data.
I. The project
The project aims to create legal data showcase, in other words:
- a unified search entry point into today's highly fragmented landscape of legal databases, and
- at the same time a low-threshold, accessible one-stop-shop for legal data.
Traditionally, libraries have been the gatekeepers for access to legal data, especially legal texts, but also legal data in the broadest sense. Libraries not only made this data spatially accessible, but also added metadata that made the data itself searchable and discoverable. This role of libraries has changed significantly in recent years. Today, legal data are often made available in databases by different actors, with different access and accessibility.The current fragmentation of access to legal data affects national and international research and its visibility. The project "Gateway to Legal Data" tries to create a counterbalance. Beyond the existing and desirable diversity of data sources, a unified search entry as well as a one-stop-shop for legal data shall be created. Its architecture can be described as follows:
II. The Challenge
A running prototype can be found here: www.scigate.online. The system is in part modularized and should be further modularized. In particular, data sources should be extended, and data aggregation added while supporting more search functionality. The linchpin of scigate.online are so-called proxies, whose task is to address data sources, translate their response and homogenize as far as possible the data to allow a unified search and access via scigate.online.
- Part of the challenge will be to build more proxies to connect additional data sources, such as fedlex and other legal data sources, to the platform. This data will be harmonized as much as possible so that it can be made available via a uniformed API. In the future, this should minimize the need to write a new scraper for each legal data research project.
- Another part of the challenge will be to present the data as search results on the platform. The proxies currently collect three lines for each entry plus a link to display the entry. The selection of what should be displayed for each entry, how it could be displayed and what existing functionality of the source systems might be used to render the search as user-friendly as possible, could be optimized. The search could also be extended by including facets or auto completion.
- Finally, the retrieved hitlists and documents (until now only for entscheidsuche) could be used to provide additional functionality. They could be fed into AI to mark the most relevant passages, to have an automated summary or to answer a natural language query.
https://challenges.openlegallab.ch/project/54
III. Resources
Running prototype: scigate.online
The different code bases can be found here:
- The common search interface: https://github.com/Velofisch/crossrecherche-ui
- The proxies to connect the different search engines: https://github.com/Velofisch/Crossrecherche-proxies
- The API to bulk download results: https://github.com/Velofisch/Scigate-API
- The UI of entscheidsuche: https://github.com/entscheidsuche/entscheidsuche-vue
Questions can be addressed at joern@erbguth.net
Crossrecherche
Crossrecherche nach juristischen Inhalten in akademischen Datebanken
Purpose and Requirements
This is a prototype to have a combined search in different academic databases with a focus on legal content. The requirement can be found in "Leistungsbeschrieb.pdf" in this repository. A proposition of layouts can be found here: https://www.figma.com/proto/9ZuPfkKwlPOt3vIWMW1FVr/Sci-Gate?node-id=2%3A2&scaling=min-zoom&page-id=0%3A1&starting-point-node-id=5%3A716 The first layout implemented will be the tabs view (page 3). The layouts on page 2 (parallel view) and page 5 (mixed view) might be added at a later stage.
Architecture
A serverless and web-application will access proxies for the different search engines. These proxies are availabe for Boris, Zora, Swisscovery and entscheidsuche.ch.
Proxy-API
These procies have a JSON REST-API:
General usage
- address: http://v2202109132150164038.luckysrv.de:8080/
- Input JSON
- type: search|hitlist
- engine: entscheidsuche|swisscovery|boris|zora
- Output JSON
- status: ok|error
- error: Error message (only present if status=error
type=search
(Only additional parameters described here)
- Input JSON
- term: search term or search terms, no syntax translation is currently done for the search engines
- Output JSON
- hits: number of hits for the search
type=hitlist
(Only additional parameters described here)
- Input JSON
- term: search term or search terms, no syntax translation is currently done for the search engines
- start: position in the hitlist to start (default=0) a position beyond the length of the hitlist will generate an error
- count: number of hits to fetch (default=10). There is no maxmimum
- Output JSON
- start: offset where the list starts
- searchterm: searchterm used
- hitlist: list of hits every hit has the following attributes
- description: list of 3 strings describing the hit. As markup can be included -Tags with the classes hl1 and hl2 for bold and italic.
- url: URL to the hit at the search engine. Can be opened without context and should be opened in a new tab
8
Legal Instruct
A dataset to finetune large language models
Im Rahmen dieser Challenge wird die Schaffung eines offen zugänglichen Legal-Instruct-Datensatzes vorgeschlagen, um grosse Sprachmodelle für den juristischen Bereich zu finetunen. Dieser Datensatz würde juristische Anweisungen in einem strukturierten und organisierten Format enthalten, das es LLMs ermöglicht, juristische Sprache und Aufgaben besser zu verstehen. Wir glauben, dass dieser Datensatz die Fähigkeit der Rechtsbranche, die Fähigkeiten von LLM zu nutzen, erheblich verbessern könnte, was letztlich zu besseren rechtlichen Ergebnissen für alle führen würde.
Lets unlock the potential of large language models in the legal industry: We propose creating an openly available Legal-Instruct Dataset.
This challenge proposes the creation of an openly available Legal-Instruct dataset to finetune large language models for the legal field. This dataset would contain legal instructions in a structured and organized format, allowing LLMs to better understand legal language and tasks. By doing so, we believe that this dataset could significantly improve the legal industry's ability to leverage LLM's capabilities, ultimately resulting in better legal outcomes for all.
legal-instruct
💡 Idea behind the challenge:
Instruction finetuning large language models (LLMs) has shown huge potential (see InstructGPT by OpenAI[^1]) this has further been improved by synthetically generated instructions using the self instruct[^2] method (see for example the Stanford Alpaca model. By instruction tuning smaller LLMs, those models are able to solve complex tasks. Most LLMs have some legal texts in their trainingdata, but will often mix different legal sources in their outputs (especially for Switzerland this is an issue, because German texts for the Swiss legal system will often be mixed with legal information from Austria and Germany, for French and Italian it's the same issue). Generating synthetic-only data is (apart from API usage limitations by for example OpenAI) therefore also not possible in the legal domain, as those mixtures would be present in the generated data as well.
Creating a legal-instruct dataset based on Swiss data is essential for finetuning large language models (LLMs) that are used in the (swiss) legal industry. This dataset would contain legal instructions in a structured and organized format (following the alpaca format), if possible in German, French and Italian. It would allow LLMs to learn the language and nuances of our legal system and legal tasks. By having access to this comprehensive dataset, LLMs would be able to better understand legal language and improve their ability to accurately perform legal tasks.
Moreover, it is important that this dataset is openly available and allows for commercial use (the example of Alpaca is intended only for academic research and commercial use is prohibited). By creating an openly available and usable dataset, it would allow for broad implementation of the dataset and ensure that every open-source LLM could benefit from its use. This would not only benefit legal professionals (as many models could use that trainingdata freely) but also companies developing LLMs for the legal industry. An openly available legal-instruct dataset would also encourage collaboration and innovation in the field, ultimately leading to better outcomes for all.
🎯 Goal of the challenge
- Create and release a legal-instruct dataset to huggingface with an open license.
- Finetune a LLM with the created dataset.
Possible tasks:
- Writing clauses and legal texts
- Legal CoT (Chain of Thought) prompting
- QnA (simple or retrieval augmented)
- Summarization
- ...
Roadmap
This will have to be discussed at the hackathon.
- [x] Simple platform to collect data (already in progess).
- [ ] Datacollection (including possibilities of automatically creating instructions from existing data).
- [ ] Define a (very) simple benchmark to see what outputs would be considered as good or bad.
- [ ] Select suitable LLM to finetune (Camel 5B, Dolly 2.0, Open Assistant (Pythia base), T0pp or FLAN-ul2)
- [ ] Finetuning an LLM (LoRA finetuning, as this could probably be achieved in the limitted time of the hackathon and wouldn't need expensive hardware).
- [ ] Review of the model.
Available Data
General (multilingual) Instruction Datasets:
Dataset for Dolly 2.0 from Databricks by Argila on Huggingface
OpenAssistant Conversations Dataset (OASST1) by Open Assistant on Huggingface
Citations
[^1]: Ouyang, Long, Jeff Wu, Xu Jiang, Diogo Almeida, Carroll L. Wainwright, Pamela Mishkin, Chong Zhang, et al. ‘Training Language Models to Follow Instructions with Human Feedback’. ArXiv [Cs.CL], 2022. arXiv. http://arxiv.org/abs/2203.02155. And OpenAI Blog (last visitted on Mon. 17th of April 2023)
[^2]: Wang, Yizhong, Yeganeh Kordi, Swaroop Mishra, Alisa Liu, Noah A. Smith, Daniel Khashabi, and Hannaneh Hajishirzi. ‘Self-Instruct: Aligning Language Model with Self Generated Instructions’. ArXiv [Cs.CL], 2022. arXiv. http://arxiv.org/abs/2212.10560.
10
LegalTech im Gesetzgebungs-prozess
Weiterentwicklung eines Prototyps, um sicherzustellen, dass neue Gesetze eine kohärente und unmissverständliche Terminologie verwenden.
https://youtu.be/bumjotb5YLE
Challenge
Ziel unserer Challenge war es, ein Tool zu entwickeln, das eine klare und präzise Rechtssprache in Erlassen fördert, die kohärente Verwendung von Rechtsbegriffen sicherstellt und Eugen Huber stolz machen würde. Die Idee war, eine Anwendung zu entwickeln, die neue Gesetzesentwürfe automatisch mit bestehenden Rechtssammlungen vergleichen kann und dem:der Nutzer:in umgehend Rückmeldung über die Wahl der Begriffe und deren sprachliche und juristische Kohärenz gibt. Die umgesetzte Anwendung bietet verschiedene Funktionen, wie z.B.:
die Identifizierung neuartiger Begriffe, also solche, die bisher noch nicht in der SR verwendet werden;
die Hervorhebung relevanter Übereinstimmungen mit bestehenden Begriffen; und
die Bereitstellung von Kontextualisierungen, indem sie zeigt, wo und wie der Begriff in anderen Rechtsdokumenten verwendet wird.
Dieses Tool hilft den Verfassern von Rechtsvorschriften, diese verständlicher zu gestalten und die Konsistenz der gesamten Rechtsordnung sicherstellen zu können. Dies fördert neben einer einheitlichen Nomenklatur auch die Rechtssicherheit.
Als Ergebnis des Hackathons liegt nun eine entwickelte Web-App vor. Sie ermöglicht es den Benutzern, Entwürfe durch Kopieren und Einfügen von Text einzuspeisen, die gewünschten Funktionen auszuwählen und direkt ein visuelles Feedback zum Entwurf zu erhalten.
Die App ermöglicht auch ein Abgleich von Begriffsdaten mit Termdat. Hierzu ist einzig ein Klick auf den zu überprüfenden Begriff nötig. Die App ist damit ein benutzerfreundliches Werkzeug, das den gesamten Prozess der Ausarbeitung und Bewertung neuer Rechtsvorschriften rationalisiert.
Zusammenfassend lässt sich sagen, dass die Hackathon-Herausforderung zur Entwicklung einer innovativen Web-App führte, die die Klarheit und Kohärenz der Rechtssprache fördert. Durch den automatischen Vergleich von Gesetzesentwürfen mit bestehenden Rechtssammlungen trägt die App dazu bei, dass Rechtsbegriffe korrekt und einheitlich verwendet werden, was letztlich zu einer verständlicheren und leichter zugänglichen Gesetzgebung führt und die Rechtssicherheit fördert.
"Legaltech im Geseetzgebungsprozess"
Challenge für das Open Legal Lab 2023
April 30 - May 1, 2023
Timothy Rabozzi
Für meine Masterarbeit "Legaltech im Geseetzgebungsprozess" haben wir ein Prototyp einer Python-Applikation entwickelt, die neue Gesetzesvorlagen mit der bestehenden Schweizer Rechtssammlung vergleicht. Durch den Vergleich der Terminologie in den neuen Entwürfen mit der bestehenden Gesetzgebung kann umfassend geprüft werden, ob ähnliche Begriffe bereits verwendet werden oder ob der Entwurf unübliche oder völlig neue Terminologie einführt. So fördert der Algorithmus die Verwendung einer klaren Sprache, vermeidet unbekannte Rechtsbegriffe und trägt zu einem besseren Verständnis der Texte bei, insbesondere für Menschen ohne juristisches Studium.
Das Instrument könnte die Verständlichkeit der Rechtssprache in einem früheren Stadium des Gesetzgebungsverfahrens verbessern. Obwohl der derzeitige Prozess von hoher Qualität ist, wird die Einbeziehung von neuen Technologien immer relevanter. Innerhalb der Verwaltung laufen mehrere Projekte, um zu untersuchen, wie Rechtstexte besser in eine digitale Umgebung integriert werden können.
Die Applikation wurde grob getestet und erforscht, es gibt aber noch einige Arbeit: Der Algorithmus muss weiterentwickelt und erweitert werden, die Datenbank sollte aktualisiert und besser integriert werden, und neue Funktionen könnten mit Users getestet, entwickelt und hinzugefügt werden.
Wir hatten die Gelegenheit, unsere Forschungsergebnisse in der Zeitschrift JUSLETTER-IT (https://jusletter-it.weblaw.ch/issues/2021/30-Juni-2021/legaltech-im-gesetzg_c9adbf9316.html__ONCE&login=false) zu veröffentlichen, was zu einem Treffen mit Vertretern verschiedener Bundesämter führte, um mögliche Anwendungen und Mehrwertaspekte des Programms zu diskutieren. Ein weiteres Treffen ist in Planung.
13
Textbausteine 2.0
Automatisch Textbausteine in Urteilen markieren
Source: https://github.com/ilyaskurikhin/OpenLegal
Challenge
Um schnell zu erkennen, was in einem Urteil neu ist, sollen immer wieder verwendete Textbausteine eingefärbt werden.
In jedem Urteil finden sich Textbausteine, die zuvor schon in zahlreichen anderen Urteilen zu lesen waren. Diese Challenge soll ein Tool hervorbringen, das zeigt, welche Textelemente in einem Urteil tatsächlich neu sind und welche schon in vielen anderen Urteilen enthalten waren. Dies kann durch Einfärbung oder Ausblenden oder Einklapp- bzw. Ausklapp-Funktion ermöglicht werden.
An der Challenge wurde letztes Jahr bereits gearbeitet. Im letzten Jahr gab es jedoch sehr grossen Fortschritt im Natural Language Processing (NLP) Bereich. Aus diesem Grund soll diese Challenge dieses Jahr noch einmal angegangen werden.
- 📎 Challenge slides
- Fortsetzung von Textbausteine Challenge an der Open Legal Lab 2022.
16
Vollmacht und Delegation im Kontext des E-ID Ökosystem
Links
- https://www.bj.admin.ch/bj/de/home/staat/gesetzgebung/staatliche-e-id.html
- https://github.com/e-id-admin/general/blob/main/meetings/20230420_Einf%C3%BChrung_zur_E-ID.pdf
- https://sovrin.org/wp-content/uploads/Guardianship-Whitepaper.pdf
- Figma-Datei eines Wallet werden zur Verfügung gestellt
eidschemas
HIer werden gesammelt:
- Typendefinitionen für gängige Attribute
- Kollektionen für gängige Attributkombinationen
- Schemas für Verified Credentials