Practice areas: Internet and IT Law
Stephen Hawking predicted in 2014 that artificial intelligence might destroy humanity in the future… While that may still sound like science fiction, the fear of the consequences of artificial intelligence is increasing at the moment. This, of course, has everything to do with the rapid development of intelligent systems – of which ChatGPT in particular has been in the spotlight recently.
The end of humanity may still be a bit far fetched, but we already saw in the Dutch childcare benefits scandal (“Toeslagenaffaire“), for example, that AI systems can intentionally or unintentionally lead to discriminatory outcomes. Among other things, based on nationality, family composition and salary, an algorithm of the tax department decided who was checked manually. The Data Protection Authority announced in January that it would start additional monitoring of “life-threatening” algorithms.
And recently, 1100 techprominent people even called for a temporary brake on the development of artificial intelligence in an open letter. We should all take at least six months to think about how to plan and control the development of artificial intelligence with care. Right now, AI labs would be caught up in a race to develop increasingly powerful digital minds, and even their creators would no longer be able to understand, predict or reliably control those minds. Advanced artificial intelligence could radically alter the history of life on Earth, according to the letter’s signatories. Elon Musk, one of the founders of OpenAI and a co-signatory of the letter, announced – somewhat surprisingly – just last week that he was working on a new algorithm: Truth GPT; an alternative to Microsoft and Google’s algorithms.
Legislators have not been idle in recent years either, although there has been considerably less focus on this. The European Union has been working on a new regulation to regulate artificial intelligence since 2017, and it will take some time before it actually enters into force.
In the draft proposal, the European Commission considers that artificial intelligence can help achieve beneficial social and environmental outcomes, and provide important competitive advantages for businesses and the European economy. At the same time, the European Commission also signals that artificial intelligence poses new risks or negative consequences for individuals or society. Given the speed of technological change and potential challenges, the new regulation should result in a balanced approach in the field of artificial intelligence.
On the one hand, the regulation aims to ensure that AI applications are safe and comply with European Union values and, on the other, it regulates AI applications economically. In summary, the new regulation should:
The draft regulation puts words in action and includes a long list of prohibited AI applications in Article 5. For example, AI applications that interfere with the behaviour of individuals without their awareness are prohibited by definition, or applications that take advantage of the vulnerability of specific groups – e.g. with disabilities – that are likely to cause physical or mental harm.
Article 5 also prohibits government agencies from using AI applications to assess or classify the reliability of individuals based on their social behaviour or personality traits if the resulting score results in unfavourable treatment of those individuals and is disproportionate to their social behaviour. Perhaps such a system sounds like something that could only exist in TV series like Black Mirror, but a social credit system is currently being implemented in China. Lower social status in that system could, for example, make it harder to obtain a mortgage. And in 2019, it was even reported that millions of Chinese with a lower social score were prevented from buying air and train tickets. As far as we are concerned, this is a very welcome ban in the draft regulation.
The regulation also includes a definition for high-risk AI systems. These include, for example, when systems pose risks to physical or mental health or when systems pose risks to fundamental rights. Such systems must meet various technical conditions, among others. For example, they must incorporate a “risk management system” that identifies and analyses certain risks on an ongoing basis.
In summary, developments in the field of artificial intelligence are rapid and concerns about the potential negative social consequences of artificial intelligence are high. At the same time, serious European legislation is in the pipeline within the European Union to regulate artificial intelligence to safeguard fundamental rights. We are following these developments with great interest and will no doubt blog about them more often in the coming period.
Arjen Schram is niet meer werkzaam bij Wieringa Advocaten. Indien u een vraag heeft naar aanleiding van deze blog dan kunt u zich wenden tot onderstaande contactpersoon van het praktijkgebied internet and it law.
Door het leggen van conservatoir (derden) beslag worden vermogensbestanddelen van een wederpartij per direct bevroren. Er kan geen overdracht meer plaatsvinden en in bepaalde gevallen kunnen vermogensbestanddelen zelfs elders in bewaring worden gegeven. Deze actie kan druk zetten op de wederpartij waardoor een snelle oplossing kan worden bereikt.
Beslaglegging moet wel altijd worden gevolgd door een bodem of arbitrage procedure, tenzij eerder een buitengerechtelijke oplossing wordt bereikt.
Onterecht leggen van beslag moet worden voorkomen; het kan leiden tot een schadevergoedingsactie.
Wij onderzoeken graag of dit rechtsmiddel in uw situatie tot een spoedige oplossing kan leiden.
Snel een uitspraak nodig van de rechter over een bepaalde urgente situatie? In dat geval is een kort geding een oplossing voor uw situatie. De rechter geeft een voorlopig oordeel waaraan partijen zich al dan niet op straffe van een dwangsom dienen te houden.
Wij denken graag mee over de voor uw situatie passende juridische oplossing.
Dit is in het civiele en bestuurlijke recht de procedure die (al dan niet na hoger beroep) leidt tot een definitieve beslechting van het geschil. Anders dan in een kort geding ligt de nadruk hier veel meer op een schriftelijke uitwisseling van processtukken.
Wij onderzoeken graag of dit de aangewezen procedure is voor uw geschil.
Een partij die zich beroept op de rechtsgevolgen van de door haar gestelde feiten of rechten moet deze bewijzen. Voorafgaand aan iedere gewenste procedure moet derhalve de bewijspositie worden bekeken.
Soms is het bewijs nog niet voldoende in handen van de cliënt. In dat geval is nadere actie gewenst. Te denken valt dan bijvoorbeeld aan het instellen van een (voorlopig) getuigenverhoor of het afdwingen van het verkrijgen van inzage in bepaalde documenten die zich bij de wederpartij bevinden (exhibitieplicht).
Wij zoeken graag met u naar de mogelijkheden om uw bewijsprobleem op te lossen.
Soms ontstaat er in een onderneming een intern geschil tussen aandeelhouders of tussen het bestuur en (enkele) aandeelhouders. Dit kan bijvoorbeeld gaan over de te volgen strategie van de onderneming. In dat geval kan aan de Ondernemingskamer, een speciaal daarvoor geëquipeerde afdeling van het Hof Amsterdam -- bij ons kantoor om de hoek -- een onderzoek naar de gang van zaken binnen de onderneming worden gevraagd. Zo'n onderzoek kan worden voorafgegaan door het vragen van voorlopige voorzieningen, zoals het schorsen van een bestuurder voor de duur van de procedure of het tijdelijk ontnemen van het stemrecht van een aandeelhouder.
Wij denken graag mee over de voor uw situatie passende oplossing.