birdwatcher (birdwatcher) wrote,

Искусственный интеллект -- Risk assessment tools are designed to do one thing: take in the details of a defendant’s profile and spit out a recidivism score—a single number estimating the likelihood that he or she will reoffend. A judge then factors that score into a myriad of decisions that can determine what type of rehabilitation services particular defendants should receive, whether they should be held in jail before trial, and how severe their sentences should be.

В данном случае, естественно, вся ответственность лежит не на искусственном интеллекте, а на судье: нормальный человек не будет пользоваться мусором, чтобы принимать важные решения. Но, с другой стороны, нормальный человек и не пойдёт в судьи, так что этот аргумент не очень хорошо работает...

  • Post a new comment


    default userpic
    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.