화학, 생물학, 방사선, 또는 핵무기를 대규모 인명 피해를 초래하는 방식으로 생성 또는 사용하는 것. 

단일 또는 관련된 여러 사건을 통해 주요 인프라에 대한 사이버 공격으로 5억 달러 이상의 피해를 입히는 것.

인공지능 모델이 자율적으로 인간이 저지른다면 형법을 위반하게 되는 행위를 통해 5억 달러 이상의 피해를 입히는 것. 

위의 (A)에서 (C)에 기술된 피해와 비교할 때 공공 안전과 보안에 비슷한 심각성을 가지는 기타 위협. 


또한, (2)항에서는 특정 모델이 위험한 능력을 가지지 않더라도, 제3자 전문가가 시연하기 위해 미세 조정 및 사후 훈련 수정 작업을 수행함으로써 위험한 능력이 나타날 경우도 포함한다고 명시하고 있습니다. 


이게 무슨뜻이냐면 만약에 라마3같은 모델을 그냥 사용할때 위험한 응답이 나오지 않았다고 해도, 누군가 파인튜닝해서 위험한 응답이 나올 수 있다면 라마3는 위험한 모델로 분류된다는듯


 근데 이러면 캘리포니아에서 누가 AI소프트웨어 사업함