• AggressivelyPassive@feddit.de
    link
    fedilink
    Deutsch
    arrow-up
    0
    ·
    11 months ago

    Sie sind in soweit Blackboxen, dass selbst die Hersteller nicht sagen können, warum sie so funktionieren.

    Sie können weder sagen, warum eine bestimmte Entscheidung getroffen wurde, noch können sie sagen, warum ein bestimmtes Design funktioniert. Es ist gerade sehr viel mehr Kunst als Wissenschaft.

    • Aiyub@feddit.de
      link
      fedilink
      Deutsch
      arrow-up
      0
      ·
      11 months ago

      Als jemand der mit KI arbeitet: warum eine Entscheidung getroffen wurde ist meist schon nachvollziehbar. Wir können beispielsweise die pixel hervorheben die besonders stark zur Entscheidung beigetragen haben.

      Das ist dann nur ein Teil des Problems, aber man ist nicht ganz blind wie du es suggerierst

      • AggressivelyPassive@feddit.de
        link
        fedilink
        Deutsch
        arrow-up
        1
        ·
        11 months ago

        Du kannst mathematisch nachvollziehen, was passiert. Aber das “Warum” dahinter eben nicht. Im Sinne von “warum werden gerade diese Pixel als Tiger erkannt?” Das sind verschiedene Arten von Warums.