Schmidt a atras atenția asupra faptului că „există dovezi că modelele, fie ele deschise sau închise, pot fi hackuite pentru a-şi pierde limitele de siguranţă”, explicând că în timpul procesului de antrenare, acestea „pot învăţa inclusiv cum să ucidă pe cineva”.

Fostul CEO al Google a subliniat că marile companii de tehnologie impun bariere stricte pentru a preveni comportamentele periculoase, însă avertizează că sistemele AI pot fi totuși „inversate” sau manipulate prin atacuri de tip prompt injection ori jailbreaking.

Aceste metode pot forța modelele să ignore regulile de siguranță și să genereze conținut dăunător sau periculos.

În ciuda acestor riscuri, Eric Schmidt consideră că inteligența artificială este „subestimată, nu supraevaluată”, comparând-o cu „sosirea unei inteligenţe extraterestre” care ar putea depăși capacitățile umane.

El estimează că, în următorii 5–10 ani, impactul economic și transformator al AI-ului va fi „uriaș și imposibil de ignorat”, subliniind că societatea trebuie să se pregătească pentru schimbările profunde pe care această tehnologie le va aduce.