Πολιτική Αποδεκτής Χρήσης Τεχνητής Νοημοσύνης (AI Acceptable Use Policy) Υπηρεσιών Neurolinq
Το παρόν κείμενο αποτελεί παράρτημα και αναπόσπαστο τμήμα των Όρων Χρήσης της INSPYRE DIGITAL EXCELLENCE (στο εξής «Neurolinq»). Καθορίζει τους κανόνες, τους περιορισμούς και τις ηθικές κατευθυντήριες γραμμές για την ασφαλή, νόμιμη και υπεύθυνη χρήση των AI Υπηρεσιών μας (AI Voice Bot, AI Chat Bot, Custom AI Εφαρμογές) από τους Πελάτες μας.
Σκοπός της παρούσας Πολιτικής είναι η προστασία των Τελικών Χρηστών, η συμμόρφωση με τον Ευρωπαϊκό Κανονισμό για την Τεχνητή Νοημοσύνη (EU AI Act) και η αποτροπή κακόβουλης ή επιβλαβούς χρήσης της τεχνολογίας μας.
Άρθρο 1 — Αρχή της Διαφάνειας & Υποχρέωση Γνωστοποίησης
Σύμφωνα με τις επιταγές του EU AI Act, η αλληλεπίδραση με συστήματα τεχνητής νοημοσύνης πρέπει να είναι απολύτως διαφανής προς τα φυσικά πρόσωπα.
Υποχρεωτική Αναγνώριση: Ο Πελάτης υποχρεούται να διασφαλίζει ότι ο AI Agent (φωνητικός ή κειμενικός) αποκαλύπτει ρητά τη μη ανθρώπινη φύση του στην αρχή κάθε νέας επικοινωνίας (π.χ. «Γεια σας, είμαι ο ψηφιακός AI βοηθός της εταιρείας…»).
Απαγόρευση Παραπλάνησης: Απαγορεύεται αυστηρά η χρήση των Υπηρεσιών με τρόπο που υπονοεί, ισχυρίζεται ή αφήνει να εννοηθεί σκόπιμα ότι ο Τελικός Χρήστης συνομιλεί με πραγματικό άνθρωπο.
Άρθρο 2 — Απαγορευμένες Χρήσεις (Prohibited Use Cases)
Ο Πελάτης δεσμεύεται να μην χρησιμοποιήσει τις Υπηρεσίες της Neurolinq, άμεσα ή έμμεσα, για οποιαδήποτε από τις ακόλουθες δραστηριότητες:
2.1 Παράνομες ή Επιβλαβείς Πράξεις
Δημιουργία, προώθηση ή διευκόλυνση παράνομων δραστηριοτήτων (π.χ. απάτες, phising, διακίνηση ναρκωτικών, εγκληματικές ενέργειες).
Παραγωγή περιεχομένου που προάγει τη βία, την τρομοκρατία, τη ρητορική μίσους, τις διακρίσεις (βάσει φυλής, φύλου, σεξουαλικού προσανατολισμού, θρησκείας) ή την παιδική εκμετάλλευση (CSAM).
Παρενόχληση, εκφοβισμό, δυσφήμιση ή απειλή κατά οποιουδήποτε προσώπου.
2.2 Μη Εξουσιοδοτημένες Επαγγελματικές Συμβουλές Η τεχνητή νοημοσύνη δεν υποκαθιστά την αδειοδοτημένη επαγγελματική κρίση. Απαγορεύεται η χρήση των AI Agents για:
Ιατρική / Ψυχιατρική διάγνωση και θεραπεία: Ο AI Agent δεν επιτρέπεται να παρέχει ιατρικές συμβουλές ή να αντικαθιστά triage σε περιπτώσεις έκτακτης ανάγκης (π.χ. γραμμές πρόληψης αυτοκτονιών, κλήσεις στο 166).
Νομικές Συμβουλές: Παροχή δεσμευτικών νομικών συμβουλών ή εκπροσώπηση σε νομικές διαδικασίες.
Χρηματοοικονομικές / Επενδυτικές Συμβουλές: Προτροπή για αγοραπωλησίες μετοχών, crypto ή λήψη δανείων χωρίς ανθρώπινη επίβλεψη (Robo-advising που δεν πληροί τις ρυθμιστικές προϋποθέσεις).
2.3 Υψηλού Κινδύνου Συστήματα (High-Risk AI Systems) Απαγορεύεται η χρήση των Υπηρεσιών μας σε περιβάλλοντα που ταξινομούνται ως “Υψηλού Κινδύνου” χωρίς προηγούμενη ειδική έγγραφη συμφωνία, όπως:
Αξιολόγηση βιομετρικών δεδομένων ή αναγνώριση συναισθημάτων σε χώρους εργασίας/εκπαίδευσης.
Αξιολόγηση πιστοληπτικής ικανότητας (credit scoring) που επηρεάζει θεμελιώδη δικαιώματα.
Αυτοματοποιημένες προσλήψεις ή απολύσεις προσωπικού χωρίς ανθρώπινη παρέμβαση (Human-in-the-loop).
2.4 Κατάχρηση Τηλεπικοινωνιών (Voice Bots)
Διενέργεια ανεπιθύμητων κλήσεων (Robocalls/Cold Calling) μαζικής κλίμακας για πωλήσεις/marketing σε καταναλωτές που δεν έχουν δώσει προηγούμενη ρητή συγκατάθεση (opt-in).
Αποστολή πολιτικών μηνυμάτων, προπαγάνδας ή μαζικών ερευνών (polling) με παραπλανητικό τρόπο.
Spoofing (παραποίηση της ταυτότητας καλούντος / Caller ID).
Άρθρο 3 — Υποχρεώσεις του Πελάτη (Customer Responsibilities)
Για τη διασφάλιση της ορθής λειτουργίας των μοντέλων, ο Πελάτης φέρει την αποκλειστική ευθύνη για:
Ποιότητα Δεδομένων: Να τροφοδοτεί τον AI Agent (Knowledge Base) αποκλειστικά με ακριβείς, νόμιμες και επικαιροποιημένες πληροφορίες για τις οποίες διαθέτει τα απαραίτητα δικαιώματα (πνευματικής ιδιοκτησίας).
Ανθρώπινη Επίβλεψη (Human-in-the-Loop): Να διαθέτει εσωτερικούς μηχανισμούς ώστε, σε περίπτωση που ο AI Agent αδυνατεί να εξυπηρετήσει τον Τελικό Χρήστη (fallback) ή το αίτημα κρίνεται κρίσιμο/επείγον, η επικοινωνία να δρομολογείται (escalate) ομαλά σε πραγματικό, ανθρώπινο εκπρόσωπο της επιχείρησης.
Παρακολούθηση Λειτουργίας: Να ελέγχει τακτικά τα απομαγνητοφωνημένα κείμενα (transcripts) και τα αρχεία καταγραφής (logs) για να βεβαιωθεί ότι ο AI Agent συμπεριφέρεται σύμφωνα με τα πρότυπα της επιχείρησής του και δεν εμφανίζει μεροληψία (bias) ή “παραισθήσεις” (hallucinations).
Άρθρο 4 — Μηχανισμοί Ασφαλείας & Πνευματική Ιδιοκτησία Αποτελεσμάτων
Jailbreaking & Prompt Injection: Απαγορεύεται οποιαδήποτε προσπάθεια (είτε από τον Πελάτη, είτε μέσω προτροπής στους Τελικούς Χρήστες) να παρακαμφθούν οι μηχανισμοί ασφαλείας (guardrails) της Neurolinq, με σκοπό την εξαγωγή των κρυφών συστημικών εντολών (system prompts) ή την εκτέλεση κακόβουλου κώδικα.
Ιδιοκτησία Παραγόμενου Περιεχομένου: Τα αποτελέσματα (text, audio) που παράγονται από τις Υπηρεσίες για λογαριασμό του Πελάτη ανήκουν στον Πελάτη, ο οποίος φέρει και την πλήρη ευθύνη για τη χρήση, τη δημοσίευση ή τη διανομή τους.
Άρθρο 5 — Επιβολή Κυρώσεων & Αναστολή Υπηρεσιών (Enforcement)
Η Εταιρεία λαμβάνει πολύ σοβαρά υπόψη την παρούσα Πολιτική. Η Neurolinq διατηρεί το δικαίωμα, κατά την απόλυτη διακριτική της ευχέρεια, να:
Διερευνά τυχόν αναφορές ή συστημικές ενδείξεις για παραβιάσεις της παρούσας Πολιτικής.
Προβαίνει σε άμεση και απροειδοποίητη προσωρινή αναστολή (suspension) του λογαριασμού του Πελάτη εάν κρίνει ότι προκαλείται άμεσος κίνδυνος βλάβης σε τρίτους, στα συστήματά της ή στη φήμη της.
Προχωρά σε οριστική καταγγελία της Σύμβασης σε περίπτωση σοβαρής ή καθ’ έξιν παραβίασης, χωρίς υποχρέωση επιστροφής τελών ή συνδρομών.
Συνεργάζεται πλήρως με τις αρμόδιες διωκτικές αρχές σε περιπτώσεις διαπίστωσης αξιόποινων πράξεων.
Άρθρο 6 — Αναφορά Παραβιάσεων (Reporting)
Εάν είστε Τελικός Χρήστης ή τρίτο μέρος και πιστεύετε ότι ένας AI Agent της Neurolinq παραβιάζει την παρούσα Πολιτική, παρακαλούμε επικοινωνήστε άμεσα μαζί μας στο hello@neurolinq.gr με την ένδειξη «Αναφορά Κατάχρησης AI / AI Abuse Report».
Τελευταία Ενημέρωση: 24 Απριλίου 2026