Но, основываясь на Акте, Robodebt не «делал выводов из получаемых входных данных», как того требуют системы ИИ. Так что, будет ли такая система попадать под действие Акта ЕС об ИИ? Должна, но туманный язык может заставить ее остаться незамеченной.
2. В правилах, касающихся моделей GPAI, имеются пробелы.
Проблема с моделями GPAI заключается в том, что одна и та же модель может использоваться для безопасных и опасных приложений. Они также обучаются на огромных объемах данных, что вызывает проблемы с конфиденциальностью и авторскими правами.
Однако модели GPAI (например, GPT-4) поддерживают многие из наших приложений ИИ и формируют основу индустрии ИИ. Поэтому вы также не можете регулировать их слишком жестко.
и с умеренных требований к прозрачности и тестированию моделей GPAI. Но это абсолютный минимум.
В законе по-прежнему остаются пробелы в во база данных телеграмм марокко просах кибербезопасности, модерации контента и энергопотребления — других типичных проблем, связанных с моделями GPAI.
При этом модели лишь предоставляют возможности.
Даже самая мощная модель с высоким «системным риском» нуждается в приложении, чтобы иметь реальное влияние. И наоборот, модель, которая не представляет «системного риска», все еще может быть применена небезопасным или опасным способом.
На данный момент законодатели ЕС начал
-
- Posts: 297
- Joined: Thu Jan 02, 2025 7:08 am