You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Copy file name to clipboardExpand all lines: content/english/_index.md
+15-23Lines changed: 15 additions & 23 deletions
Display the source diff
Display the rich diff
Original file line number
Diff line number
Diff line change
@@ -85,39 +85,31 @@ Activity_Feed:
85
85
Areas_of_AI_expertise:
86
86
title: Expertise
87
87
enable: true
88
-
width_m: 4
88
+
width_m: 6
89
89
width_s: 12
90
90
feature_item:
91
91
- name: Sociotechnical evaluation of generative AI
92
92
icon: fas fa-robot
93
93
content: >
94
-
Evaluating Large Language Models (LLMs) and other general-purpose AI
95
-
models for robustness, privacy and AI Act compliance. Based on
96
-
real-world examples, are developing a framework to analyze content
97
-
filters, guardrails and user interaction design choices. <a href="/technical-tools/eval-gen-ai" style="text-decoration:
98
-
underline;">Learn more</a> about our evaluation
99
-
framework.
100
-
- name: AI Act implementation and standards
94
+
We evaluate Large Language Models (LLMs) and other generative AI
95
+
applications relating to guardrails, privacy and AI Act compliance. Based on a mature RAG application of the Dutch judiciary, we have developed a <a href="/technical-tools/eval-gen-ai" style="text-decoration: underline;">validation framework</a> to analyze content filters, embedding strategies and user interaction design choices. <a href="/knowledge-platform/project-work/#AI-safety" style="text-decoration: underline;">Read more</a> about AI Safety project work we conduct for the AI Office of the European Commission.
style="text-decoration: underline;">AI and Algorithms Qualification Toolkit (AI AQT)</a> helps
105
-
organizations identifying AI systems and assigning the right risk
106
-
category. As a member of Dutch and European standardization
107
-
organisations NEN and CEN-CENELEC, Algorithm Audit monitors and
108
-
contributes to the development of standards for AI systems. See also our
109
-
public <a href="/knowledge-platform/standards/" style="text-decoration:
110
-
underline;">knowledge base</a> on standardization
111
-
- name: Bias analysis
100
+
style="text-decoration: underline;">AI and Algorithms Qualification Toolkit (AI AQT)</a> helps organizations identify algorithms and AI systems at scale and helps in assigning the appropriate risk category. As a member of Dutch and European standardization organisations NEN and CEN-CENELEC, Algorithm Audit monitors and contributes to the development of standards for the AI Act. See also our public <a href="/knowledge-platform/standards/" style="text-decoration: underline;">knowledge base</a> on standardization.
101
+
- name: Bias analysis and non-discrimination
112
102
icon: fas fa-chart-pie
113
103
content: >
114
104
We evaluate algorithmic systems both from a qualitative and quantitative
115
-
dimension. Besides expertise about data analysis and AI engineering, we
116
-
possess have in-depth knowledge of legal frameworks concerning
117
-
non-discrimination, automated decision-making and organizational risk
118
-
management. See our <a href="/knowledge-platform/knowledge-base/"
119
-
style="text-decoration: underline;">public standards</a> how to deploy
120
-
algorithmic systems responsibly.
105
+
dimension, including analysis of objective justification as a key element of EU non-discrimination law. In addition to expertise in data analysis and statistics, Algorithm Audit has legal expertise relating to the GDPR, specifically prohibited automated decision-making, and organizational risk management. See our <a href="/knowledge-platform/knowledge-base/"
106
+
style="text-decoration: underline;">public standards</a> for the responsible use of algorithmic systems.
107
+
- name: Auditing and legal compliance
108
+
icon: fas fa-scroll
109
+
content: >
110
+
We audit algorithmic systems from organisational, technial and legal
111
+
perspective. We also offer support with interpretation and implementation of the AI Act and GDPR legal texts, annexes and guidelines from the European Commission, including issues regarding definitions, high-risk applications and conformity assessment. Our <a href="/knowledge-platform/knowledge-base/"
112
+
style="text-decoration: underline;">audit reports and white papers</a> contribute to public knowledge how legal compliance can be realised.
Copy file name to clipboardExpand all lines: content/nederlands/_index.md
+13-52Lines changed: 13 additions & 52 deletions
Display the source diff
Display the rich diff
Original file line number
Diff line number
Diff line change
@@ -91,65 +91,26 @@ Areas_of_AI_expertise:
91
91
width_m: 6
92
92
width_s: 12
93
93
feature_item:
94
-
- name: Socio-technische evaluatie generatieve AI
94
+
- name: Socio-technische evaluatie van generatieve AI
95
95
icon: fas fa-robot
96
96
content: >
97
-
Evaluatie van Large Language Models (LLMs) en andere generatieve
98
-
AI-modellen met betrekking tot robuustheid, privacy en naleving van de
99
-
AI-verordening. Op basis van praktijkvoorbeelden ontwikkelen we een
100
-
validatiekader om contentfilters, guardrails en ontwerpkeuzes voor
101
-
gebruikersinteractie te beoordelen. <a
102
-
103
-
href="/nl/technical-tools/eval-gen-ai"
104
-
105
-
style="text-decoration: underline;">Lees meer</a> over ons
106
-
validatiekader.
97
+
We evalueren Large Language Models (LLMs) en andere generatieve AI-toepassingen met betrekking tot vangrails, privacy en naleving van de AI-verordening. Gebaseerd op een volwassen RAG-applicatie van de Rechtspraak, hebben we een <a href="/nl/technical-tools/eval-gen-ai" style="text-decoration: underline;">validatiekader</a> ontwikkeld voor keuzes inzake contentfilters, embedding strategieën en gebruikersinteractie designkeuzes. <a href="/nl/knowledge-platform/project-work/#AI-safety"
98
+
style="text-decoration: underline;">Lees meer</a> over ons AI Safety projectwerk dat we verrichten in opdracht van de AI Office van de Europese Commissie.
style="text-decoration: underline;">AI en Algoritme Kwalificatie Toolkit (AI AQT)</a> ondersteunt organizaties om algoritmes en AI-systemen op schaal te identificeren en helpt bij het toekennen van de correcte risicocategorie. Als lid van de Nederlandse en Europese normalisatie-instituten NEN en CEN-CENELEC monitoren en dragen we bij aan de ontwikkeling van normen voor de AI-verordening. Zie ook onze publieke <a href="/knowledge-platform/standards/" style="text-decoration: underline;">kennisbank</a> over normen voor AI.
104
+
- name: Biasanalyse en non-discriminatie
125
105
icon: fas fa-chart-pie
126
106
content: >
127
-
We evalueren algoritmische systemen vanuit zowel een kwalitatieve als
128
-
kwantitatieve dimensie. Naast expertise in data-analyse en software
129
-
ontwikkeling beschikken we over kennis van juridische kaders rondom
130
-
non-discriminatie, geautomatiseerde besluitvorming en organisatorisch
131
-
risicomanagement. Zie onze <a
132
-
133
-
href="/nl/knowledge-platform/knowledge-base/"
134
-
135
-
style="text-decoration: underline;">publieke standaarden</a> voor
136
-
verantwoord gebruik van algoritmische systemen.
137
-
- name: Op maat gemaakte technische hulpmiddelen
138
-
icon: fas fa-code
107
+
We evalueren algoritmische systemen vanuit zowel kwalitatief als kwantitatief oogpunt, met inbegrip van de objectieve rechtvaardigingstoets als kern van het Europees non-discriminatie recht. Naast data analyse en statistische expertise heeft Algorithm Audit juridische expertise met betrekking tot de AVG, in het bijzonder het voorkomen van verboden volledige geautomatiseerde besluitvorming en organisatorisch risicomanagement. Zie ook onze <a href="/nl/knowledge-platform/knowledge-base/"
108
+
style="text-decoration: underline;">publieke standaarden</a> voor verantwoord gebruik van algoritmische systemen.
109
+
- name: Auditing en wettelijke naleving
110
+
icon: fas fa-scroll
139
111
content: >
140
-
Voor specifieke toepassingen ten behoeven van de verantwoorde inzet van
141
-
algoritmes en AI ontwikkelt Algorith Audit technische tools. Zie
142
-
bijvoorbeeld onze open source tools voor <a
143
-
href="/nl/technical-tools/sdg/"
144
-
style="text-decoration: underline;">synthetische data
met het Ministerie van Binnenlandse Zaken en de Diesnt Uitvoering
150
-
Onderwijs (DUO). Onze tools zijn local-only. Dat betekent dat data de
151
-
omgeving van organisaties niet verlaten en er geen afhankelijkheden zijn
152
-
van cloudplatforms.
112
+
We auditen algoritmische systemen vanuit zowel een organisatorisch, technisch als juridisch perspectief. Daarnaast ondersteunen we bij interpretatie en implementatie van de AI-verordening en de AVG wetteksten, bijlages en richtlijnen van de Europese Commissie, zo ook definitiekwesties, hoogrisico bepalingen en conformiteitsbeoordelingen. Onze <a href="/nl/knowledge-platform/knowledge-base/"
113
+
style="text-decoration: underline;">auditrapporten en white papers</a> dragen bij aan publieke kennisopbouw over hoe wettelijke naleving gerealiseerd kan worden.
0 commit comments