Η Αμερικανική Ακαδημία Τεχνών και Επιστημών Ηχογράφησης έβγαλε ανακοίνωση για νέο κανόνα, σύμφωνα με τον οποίο δεν επιτρέπεται η συμμετοχή στα Βραβεία Grammy σε δημιουργούς Τεχνητής Νοημοσύνης (ΑΙ).
Η Ακαδημία δήλωσε ότι “μόνο άνθρωποι δημιουργοί μπορούν να υποβληθούν προς εξέταση” και ότι “ένα έργο που δεν περιέχει ανθρώπινη δημιουργία δεν είναι επιλέξιμο σε οποιαδήποτε κατηγορία“.
Σε περίπτωση που το έργο έχει στηριχθεί σε ανθρώπινη δημιουργία μαζί με τεχνητή νοημοσύνη, τότε είναι επιλέξιμο για υποψηφιότητα μόνο το στοιχείο του ανθρώπινου έργου. Ακόμη, “πρέπει να έχει νόημα και να είναι κάτι περισσότερο από de minimis“. De minimis είναι “αυτό που δεν έχει σημασία ή σπουδαιότητα, τόσο ασήμαντο που αξίζει να αγνοηθεί”.
Επίσης, δημιουργοί που θα δώσουν μόνο οποιοδήποτε υλικό AI μέσα σε δημιούργημα δεν θα είναι και αυτοί επιλέξιμοι.
“Εάν υπάρχουν: φωνή τεχνητής νοημοσύνης που ερμηνεύει το τραγούδι ή ενορχήστρωση τεχνητής νοημοσύνης, θα εξετάσουμε το έργο. Αλλά σε κατηγορία που βασίζεται στη σύνθεση τραγουδιών, πρέπει η μουσική να έχει γραφτεί κυρίως από άνθρωπο“, ανέφερε ο Χάρβεϊ Μέισον Τζούνιορ, διευθύνων σύμβουλος της Ακαδημίας Ηχογράφησης, στο Grammy.com.
Δήλωσε ακόμη ότι η Τεχνητή Νοημοσύνη (AI) “αναμφισβήτητα” θα διαμορφώσει το μέλλον της διεθνούς μουσικής σκηνής και πως τα Grammy – ώς θεσμός – θα χρειαστεί να ασχοληθεί με τα ζητήματα που θα φέρει στο προσκήνιο η χρήση του ΑΙ.
Με αφορμή την επέτειο της εξέγερσης του Πολυτεχνείου, δείτε το δίωρο ντοκιμαντέρ του Ρεπορτάζ Χωρίς Σύνορα,…
Δεκάδες Παλαιστίνιοι σκοτώθηκαν ή τραυματίστηκαν την Κυριακή (17/11) από ισραηλινό πλήγμα σε πολυώροφο κτίριο κατοικιών…
Νέα τροπή παίρνει η υπόθεση της Γεωργία Μπίκα, η οποία πλέον παραπέμπεται σε δίκη, μαζί με…
Tρεις αλλαγές στο σύστημα πληρωμών IRIS προωθεί το υπουργείο Εθνικής Οικονομίας για το 2025, ώστε να γίνει…
«Είμαστε υπέρ των πολλών δυνατοτήτων και της αύξησης του ανταγωνισμού για την αποκλιμάκωση των τιμών.…
Μια σοβαρότατη καταγγελία έρχεται στο «φως» της δημοσιότητας, προκαλώντας βαθύ προβληματισμό και οργή και αίσθημα…
This website uses cookies.