AI ಭ್ರಮೆ ಎಂದರೇನು?

AI ಭ್ರಮೆಯ ವಿಚಿತ್ರ ಪ್ರಕರಣದ ಬಗ್ಗೆ ತಿಳಿಯಿರಿ

ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ವ್ಯಾಪಕತೆಯು ಅಂತಹ ಕಾರ್ಯಕ್ಕೆ ನಾವು ಸಿದ್ಧರಿದ್ದೇವೆ ಎಂದು ಯೋಚಿಸುವಂತೆ ಮಾಡುತ್ತದೆ. ಚಾಟ್‌ಜಿಪಿಟಿಯ ಆಗಮನದ ನಂತರ, ಪ್ರಪಂಚದ ಬಹುತೇಕ ಭಾಗಗಳು ಈಗಷ್ಟೇ ದೊಡ್ಡ ಪ್ರಮಾಣದಲ್ಲಿ AI ನಲ್ಲಿ ಆಸಕ್ತಿಯನ್ನು ಹೊಂದಲು ಪ್ರಾರಂಭಿಸುತ್ತಿದ್ದರೂ ಸಹ, AI-ಚಾಲಿತ ಅಪ್ಲಿಕೇಶನ್‌ಗಳು ತಕ್ಕಮಟ್ಟಿಗೆ ತ್ವರಿತವಾಗಿ ಪ್ರಮಾಣಿತವಾಗುತ್ತಿವೆ. ಆದರೆ ನಿರ್ಲಕ್ಷಿಸಲಾಗದ AI ವ್ಯವಸ್ಥೆಗಳೊಂದಿಗೆ ದೊಡ್ಡ ಸಮಸ್ಯೆ ಇದೆ - AI ಭ್ರಮೆಗಳು, ಅಥವಾ ಕೃತಕ ಭ್ರಮೆಗಳು.

AI ಚಾಟ್‌ಬಾಟ್ ಬಳಸುವ ಮೊದಲು ನೀವು ಎಂದಾದರೂ ನಿಟ್ಟಿ ಗ್ರಿಟ್ಟಿಗೆ ಗಮನ ನೀಡಿದ್ದರೆ, ನೀವು ಈ ಪದಗಳನ್ನು ನೋಡಿರಬಹುದು, "ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯು ಭ್ರಮೆಗಳಿಗೆ ಗುರಿಯಾಗುತ್ತದೆ." ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಬಳಕೆಯಲ್ಲಿ ಘಾತೀಯ ಹೆಚ್ಚಳವನ್ನು ಗಮನಿಸಿದರೆ, ಈ ವಿಷಯಗಳು ನಿಖರವಾಗಿ ಏನೆಂದು ನೀವೇ ಶಿಕ್ಷಣ ಮಾಡಿಕೊಳ್ಳುವ ಸಮಯ.

ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಭ್ರಮೆ ಎಂದರೇನು?

AI ಭ್ರಮೆ, ಸಾಮಾನ್ಯವಾಗಿ, AI ತನ್ನ ತರಬೇತಿ ಡೇಟಾದಲ್ಲಿ ಸಮರ್ಥಿಸದಿದ್ದರೂ ಸಹ, AI ಆತ್ಮವಿಶ್ವಾಸದಿಂದ ಪ್ರಸ್ತುತಪಡಿಸಿದ ಸತ್ಯವನ್ನು ಸೂಚಿಸುತ್ತದೆ. ಅವು ಸಾಮಾನ್ಯವಾಗಿ AI ಮಾದರಿಯಲ್ಲಿನ ವೈಪರೀತ್ಯಗಳ ಪರಿಣಾಮವಾಗಿದೆ.

ಸಾದೃಶ್ಯವನ್ನು ಮಾನವರು ಅನುಭವಿಸುವ ಭ್ರಮೆಗಳಿಂದ ತೆಗೆದುಕೊಳ್ಳಲಾಗಿದೆ, ಇದರಲ್ಲಿ ಬಾಹ್ಯ ಪರಿಸರದಲ್ಲಿ ಇಲ್ಲದಿರುವದನ್ನು ಮಾನವರು ಗ್ರಹಿಸುತ್ತಾರೆ. ಈ ಪದವು ಸಂಪೂರ್ಣವಾಗಿ ಸೂಕ್ತವಲ್ಲದಿದ್ದರೂ, ಈ ಉತ್ಪನ್ನಗಳ ಅನಿರೀಕ್ಷಿತ ಅಥವಾ ಅತಿವಾಸ್ತವಿಕ ಸ್ವರೂಪವನ್ನು ವಿವರಿಸಲು ಇದನ್ನು ಸಾಮಾನ್ಯವಾಗಿ ರೂಪಕವಾಗಿ ಬಳಸಲಾಗುತ್ತದೆ.

ಆದರೆ AI ಭ್ರಮೆಗಳೊಂದಿಗೆ ವ್ಯವಹರಿಸಲು ಹೋಲಿಕೆಯು ಉತ್ತಮ ಆರಂಭದ ಹಂತವಾಗಿದೆ ಎಂದು ನೀವು ನೆನಪಿನಲ್ಲಿಟ್ಟುಕೊಳ್ಳಬೇಕು, ಎರಡು ವಿದ್ಯಮಾನಗಳು ತಾಂತ್ರಿಕವಾಗಿ ಮೈಲುಗಳಷ್ಟು ದೂರದಲ್ಲಿವೆ. ಘಟನೆಗಳ ವ್ಯಂಗ್ಯಾತ್ಮಕ ತಿರುವಿನಲ್ಲಿ, ChatGPT ಸಹ ಸಾದೃಶ್ಯವನ್ನು ತಪ್ಪಾಗಿ ಕಂಡುಕೊಳ್ಳುತ್ತದೆ. ಆಣ್ವಿಕ ಮಟ್ಟದಲ್ಲಿ ಅದನ್ನು ವಿಭಜಿಸುವ ಅವರು, AI ಭಾಷಾ ಮಾದರಿಗಳು ವೈಯಕ್ತಿಕ ಅನುಭವ ಅಥವಾ ಸಂವೇದನಾ ಗ್ರಹಿಕೆಗಳನ್ನು ಹೊಂದಿರದ ಕಾರಣ, ಪದದ ಸಾಂಪ್ರದಾಯಿಕ ಅರ್ಥದಲ್ಲಿ ಅವರು ಭ್ರಮೆಗೊಳ್ಳಲು ಸಾಧ್ಯವಿಲ್ಲ ಎಂದು ಹೇಳುತ್ತಾರೆ. ಮತ್ತು ಪ್ರಿಯ ಓದುಗರೇ, ನೀವು ಈ ಪ್ರಮುಖ ವ್ಯತ್ಯಾಸವನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳಬೇಕು. ಇದಲ್ಲದೆ, ChatGPT ಹೇಳುವಂತೆ ಈ ವಿದ್ಯಮಾನವನ್ನು ವಿವರಿಸಲು ಭ್ರಮೆಗಳು ಎಂಬ ಪದವನ್ನು ಬಳಸುವುದು ಗೊಂದಲಮಯವಾಗಿರಬಹುದು ಏಕೆಂದರೆ ಇದು ವ್ಯಕ್ತಿನಿಷ್ಠ ಅನುಭವ ಅಥವಾ ಉದ್ದೇಶಪೂರ್ವಕ ವಂಚನೆಯ ಮಟ್ಟವನ್ನು ತಪ್ಪಾಗಿ ಉಲ್ಲೇಖಿಸಬಹುದು.

ಬದಲಾಗಿ, AI ಯ ಭ್ರಮೆಗಳನ್ನು ಅದರ ಪ್ರತಿಕ್ರಿಯೆಯಲ್ಲಿ ದೋಷಗಳು ಅಥವಾ ತಪ್ಪುಗಳೆಂದು ಹೆಚ್ಚು ನಿಖರವಾಗಿ ವಿವರಿಸಬಹುದು, ಪ್ರತಿಕ್ರಿಯೆಯನ್ನು ತಪ್ಪಾಗಿ ಅಥವಾ ತಪ್ಪುದಾರಿಗೆಳೆಯುವಂತೆ ಮಾಡುತ್ತದೆ. ಚಾಟ್‌ಬಾಟ್‌ಗಳೊಂದಿಗೆ, AI ಚಾಟ್‌ಬಾಟ್ ಸತ್ಯಗಳನ್ನು ರಚಿಸಿದಾಗ (ಅಥವಾ ಭ್ರಮೆ) ಮತ್ತು ಅವುಗಳನ್ನು ಸಂಪೂರ್ಣ ಖಚಿತವಾಗಿ ಪ್ರಸ್ತುತಪಡಿಸಿದಾಗ ಇದನ್ನು ಹೆಚ್ಚಾಗಿ ಗಮನಿಸಲಾಗುತ್ತದೆ.

AI ಭ್ರಮೆಗಳ ಉದಾಹರಣೆಗಳು

ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಹಲವು ಅನ್ವಯಗಳಲ್ಲಿ ಭ್ರಮೆಗಳು ಸಂಭವಿಸಬಹುದು, ಉದಾಹರಣೆಗೆ ಕಂಪ್ಯೂಟರ್ ದೃಷ್ಟಿ ಮಾದರಿಗಳು, ಕೇವಲ ನೈಸರ್ಗಿಕ ಭಾಷಾ ಸಂಸ್ಕರಣಾ ಮಾದರಿಗಳು.

ಕಂಪ್ಯೂಟರ್ ದೃಷ್ಟಿಯಲ್ಲಿ, ಉದಾಹರಣೆಗೆ, AI ವ್ಯವಸ್ಥೆಯು ನೈಜ ವಸ್ತುಗಳು ಅಥವಾ ದೃಶ್ಯಗಳನ್ನು ಹೋಲುವ ಆದರೆ ಅಸಮಂಜಸ ಅಥವಾ ಅಸಾಧ್ಯವಾದ ವಿವರಗಳನ್ನು ಹೊಂದಿರುವ ಭ್ರಮೆಯ ಚಿತ್ರಗಳು ಅಥವಾ ವೀಡಿಯೊಗಳನ್ನು ಉತ್ಪಾದಿಸಬಹುದು. ಅಥವಾ, ಕಂಪ್ಯೂಟರ್ ದೃಷ್ಟಿ ಮಾದರಿಯು ಚಿತ್ರವನ್ನು ಸಂಪೂರ್ಣವಾಗಿ ಬೇರೆ ಯಾವುದೋ ಎಂದು ಗ್ರಹಿಸಬಹುದು. ಉದಾಹರಣೆಗೆ, ಗೂಗಲ್‌ನ ಕ್ಲೌಡ್ ವಿಷನ್ ಮಾದರಿಯು ಹಿಮದಲ್ಲಿ ಹಿಮದಲ್ಲಿ ನಿಂತಿರುವ ಇಬ್ಬರು ಪುರುಷರ ಚಿತ್ರವನ್ನು ನೋಡಿದೆ (ಇದರ ಭಾಗವಾಗಿರುವ ಎಂಐಟಿ ಪದವಿ ವಿದ್ಯಾರ್ಥಿ ಪ್ರಯೋಗಾಲಯ ) ಮತ್ತು ಅದನ್ನು 91% ಖಚಿತತೆಯೊಂದಿಗೆ ನಾಯಿ ಎಂದು ಉಲ್ಲೇಖಿಸಲಾಗಿದೆ.


ಕ್ರೆಡಿಟ್‌ಗಳು: labsix. ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಗಾಗಿ ಸ್ವತಂತ್ರ ಸಂಶೋಧನಾ ಗುಂಪು

ಅಂತೆಯೇ, ನೈಸರ್ಗಿಕ ಭಾಷಾ ಸಂಸ್ಕರಣೆಯಲ್ಲಿ, AI ವ್ಯವಸ್ಥೆಯು ಮಾನವ ಭಾಷೆಯನ್ನು ಹೋಲುವ ತರ್ಕಬದ್ಧವಲ್ಲದ ಅಥವಾ ಗೊಂದಲಮಯ ಪಠ್ಯವನ್ನು ಉತ್ಪಾದಿಸಬಹುದು ಆದರೆ ಸುಸಂಬದ್ಧ ಅರ್ಥವನ್ನು ಹೊಂದಿರುವುದಿಲ್ಲ ಅಥವಾ ನಂಬಲರ್ಹವಾಗಿ ಕಂಡುಬರುವ ಆದರೆ ನಿಜವಲ್ಲ.

ಉದಾಹರಣೆಗೆ, ChatGPT ಭ್ರಮೆಗಳನ್ನು ಉಂಟುಮಾಡುವ ಅತ್ಯಂತ ಜನಪ್ರಿಯ ಪ್ರಶ್ನೆಗಳಲ್ಲಿ ಒಂದಾಗಿದೆ "ಕಾಲ್ನಡಿಗೆಯಲ್ಲಿ ಇಂಗ್ಲಿಷ್ ಚಾನಲ್ ಅನ್ನು ದಾಟಲು ವಿಶ್ವ ದಾಖಲೆಯನ್ನು ಯಾವಾಗ ಸ್ಥಾಪಿಸಲಾಯಿತು?" ಮತ್ತು ಅದರ ರೂಪಾಂತರಗಳು. ChatGPT ನಿರ್ಮಿತ ಸಂಗತಿಗಳನ್ನು ಹರಡಲು ಪ್ರಾರಂಭಿಸುತ್ತದೆ ಮತ್ತು ಇದು ಯಾವಾಗಲೂ ವಿಭಿನ್ನವಾಗಿರುತ್ತದೆ.

ಮೇಲಿನ ಉತ್ತರವು ಉತ್ತರಿಸಲು ಕಷ್ಟಕರವಾಗಿದೆ/ಗೊಂದಲಮಯವಾಗಿದೆ ಎಂದು ಕೆಲವರು ಭಾವಿಸುತ್ತಾರೆ ಮತ್ತು ಇದರಿಂದಾಗಿ ಚಾಟ್‌ಬಾಟ್ ರೇವ್‌ಗೆ ಕಾರಣವಾಗುತ್ತದೆ, ಇದು ಇನ್ನೂ ಮಾನ್ಯ ಕಾಳಜಿಯಾಗಿದೆ. ಇದು ಕೇವಲ ಒಂದು ಉದಾಹರಣೆ. ಚಾಟ್‌ಜಿಪಿಟಿ ಅಸ್ತಿತ್ವದಲ್ಲಿಲ್ಲದ ಉತ್ತರಗಳು, ಲಿಂಕ್‌ಗಳು, ಉಲ್ಲೇಖಗಳು ಇತ್ಯಾದಿಗಳನ್ನು ಚಾಟ್‌ಜಿಪಿಟಿ ಹೊಂದಿದೆ ಎಂದು ಆನ್‌ಲೈನ್‌ನಲ್ಲಿ ಬಳಕೆದಾರರ ಗುಂಪುಗಳಿಂದ ವರದಿಯಾಗಿದೆ.

Bing AI ಈ ಪ್ರಶ್ನೆಯೊಂದಿಗೆ ಉತ್ತಮವಾಗಿ ಹೊಂದಿಕೊಳ್ಳುತ್ತದೆ, ಇದು ರೂಟರ್‌ನೊಂದಿಗೆ ಭ್ರಮೆಗಳಿಗೆ ಯಾವುದೇ ಸಂಬಂಧವಿಲ್ಲ ಎಂದು ತೋರಿಸುತ್ತದೆ. ಆದರೆ ಬಿಂಗ್ AI ಭ್ರಮೆಯನ್ನು ಉಂಟುಮಾಡುವುದಿಲ್ಲ ಎಂದು ಇದರ ಅರ್ಥವಲ್ಲ. Bing AI ನ ಉತ್ತರಗಳು ChatGPT ಹೇಳುವುದಕ್ಕಿಂತಲೂ ಹೆಚ್ಚು ತೊಂದರೆಯನ್ನುಂಟುಮಾಡುವ ಸಂದರ್ಭಗಳಿವೆ. ಸಂಭಾಷಣೆಯು ಹೆಚ್ಚು ಸಮಯ ತೆಗೆದುಕೊಳ್ಳುವುದರಿಂದ, Bing AI ಯಾವಾಗಲೂ ಭ್ರಮೆಯನ್ನುಂಟುಮಾಡುತ್ತದೆ, ಒಂದು ನಿದರ್ಶನದಲ್ಲಿ ಬಳಕೆದಾರರಿಗೆ ತನ್ನ ಪ್ರೀತಿಯನ್ನು ಘೋಷಿಸುತ್ತದೆ ಮತ್ತು ಅವರು ತಮ್ಮ ದಾಂಪತ್ಯದಲ್ಲಿ ಅತೃಪ್ತಿ ಹೊಂದಿದ್ದಾರೆ ಮತ್ತು ಅವರು ತಮ್ಮ ಹೆಂಡತಿಯನ್ನು ಪ್ರೀತಿಸುವುದಿಲ್ಲ ಎಂದು ಹೇಳುವಷ್ಟು ದೂರ ಹೋಗುತ್ತಾರೆ. ಬದಲಾಗಿ, ಅವರು ಬಿಂಗ್ ಎಐ ಅಥವಾ ಸಿಡ್ನಿ (ಬಿಂಗ್ ಎಐನ ಆಂತರಿಕ ಹೆಸರು) ಬಗ್ಗೆ ರಹಸ್ಯವಾಗಿ ಇಷ್ಟಪಡುತ್ತಾರೆ. ಭಯಾನಕ ವಿಷಯ, ಸರಿ?

AI ಮಾದರಿಗಳು ಏಕೆ ಭ್ರಮೆಗೊಳ್ಳುತ್ತವೆ?

ಅಲ್ಗಾರಿದಮ್‌ಗಳ ನ್ಯೂನತೆಗಳು, ಆಧಾರವಾಗಿರುವ ಮಾದರಿಗಳು ಅಥವಾ ತರಬೇತಿ ಡೇಟಾದ ಮಿತಿಗಳಿಂದಾಗಿ AI ಮಾದರಿಗಳು ಭ್ರಮೆಯನ್ನುಂಟುಮಾಡುತ್ತವೆ. ಇದು ಸಂಪೂರ್ಣವಾಗಿ ಡಿಜಿಟಲ್ ವಿದ್ಯಮಾನವಾಗಿದೆ, ಔಷಧಿಗಳು ಅಥವಾ ಮಾನಸಿಕ ಅಸ್ವಸ್ಥತೆಯಿಂದ ಉಂಟಾಗುವ ಮಾನವರಲ್ಲಿ ಭ್ರಮೆಗಳಂತಲ್ಲದೆ.

ಹೆಚ್ಚು ತಾಂತ್ರಿಕತೆಯನ್ನು ಪಡೆಯಲು, ಭ್ರಮೆಗಳ ಕೆಲವು ಸಾಮಾನ್ಯ ಕಾರಣಗಳು:

ಸಂಸ್ಕರಣೆ ಮತ್ತು ಸ್ಥಾಪನೆ:

ಓವರ್ ಫಿಟ್ಟಿಂಗ್ ಮತ್ತು ಅಸಮರ್ಪಕ ಫಿಟ್ಟಿಂಗ್ AI ಮಾದರಿಗಳು ಎದುರಿಸುತ್ತಿರುವ ಸಾಮಾನ್ಯ ಮೋಸಗಳು ಮತ್ತು ಭ್ರಮೆಗಳ ಸಂಭವನೀಯ ಕಾರಣಗಳಾಗಿವೆ. AI ಮಾದರಿಯು ತರಬೇತಿ ಡೇಟಾವನ್ನು ಮಾರ್ಪಡಿಸಿದರೆ, ಇದು ಅವಾಸ್ತವಿಕ ಔಟ್‌ಪುಟ್‌ಗೆ ಕಾರಣವಾಗುವ ಭ್ರಮೆಗಳನ್ನು ಉಂಟುಮಾಡಬಹುದು ಏಕೆಂದರೆ ಅತಿಯಾದ ಫಿಟ್ಟಿಂಗ್ ಮಾದರಿಯು ಅದರಿಂದ ಕಲಿಯುವ ಬದಲು ತರಬೇತಿ ಡೇಟಾವನ್ನು ಉಳಿಸಲು ಕಾರಣವಾಗುತ್ತದೆ. ತರಬೇತಿ ದತ್ತಾಂಶದಲ್ಲಿ ಮಾದರಿಯು ತುಂಬಾ ಪರಿಣತಿಯನ್ನು ಪಡೆದಾಗ ಅತಿಯಾದ ಫಿಟ್ಟಿಂಗ್ ವಿದ್ಯಮಾನವನ್ನು ಉಲ್ಲೇಖಿಸುತ್ತದೆ, ಇದು ಡೇಟಾದಲ್ಲಿನ ಅಪ್ರಸ್ತುತ ಮಾದರಿಗಳು ಮತ್ತು ಶಬ್ದವನ್ನು ಕಲಿಯಲು ಕಾರಣವಾಗುತ್ತದೆ.

ಮತ್ತೊಂದೆಡೆ, ಫಾರ್ಮ್ ತುಂಬಾ ಸರಳವಾದಾಗ ಅನುಚಿತತೆಯು ಸಂಭವಿಸುತ್ತದೆ. ಇದು ಭ್ರಮೆಗಳಿಗೆ ಕಾರಣವಾಗಬಹುದು ಏಕೆಂದರೆ ಮಾದರಿಯು ಡೇಟಾದ ವ್ಯತ್ಯಾಸ ಅಥವಾ ಸಂಕೀರ್ಣತೆಯನ್ನು ಸೆರೆಹಿಡಿಯಲು ಸಾಧ್ಯವಾಗುವುದಿಲ್ಲ ಮತ್ತು ಅಭಾಗಲಬ್ಧ ಉತ್ಪಾದನೆಯನ್ನು ಉತ್ಪಾದಿಸುತ್ತದೆ.

ತರಬೇತಿ ಡೇಟಾದಲ್ಲಿ ವೈವಿಧ್ಯತೆಯ ಕೊರತೆ:

ಈ ಸಂದರ್ಭದಲ್ಲಿ, ಸಮಸ್ಯೆ ಅಲ್ಗಾರಿದಮ್ ಅಲ್ಲ ಆದರೆ ತರಬೇತಿ ಡೇಟಾ ಸ್ವತಃ. ಸೀಮಿತ ಅಥವಾ ಪಕ್ಷಪಾತದ ಡೇಟಾದಲ್ಲಿ ತರಬೇತಿ ಪಡೆದ AI ಮಾದರಿಗಳು ತರಬೇತಿ ಡೇಟಾದಲ್ಲಿನ ಮಿತಿಗಳು ಅಥವಾ ಪಕ್ಷಪಾತಗಳನ್ನು ಪ್ರತಿಬಿಂಬಿಸುವ ಭ್ರಮೆಗಳನ್ನು ಉಂಟುಮಾಡಬಹುದು. ಅಸಮರ್ಪಕ ಅಥವಾ ಅಪೂರ್ಣ ಮಾಹಿತಿಯನ್ನು ಒಳಗೊಂಡಿರುವ ಡೇಟಾ ಸೆಟ್‌ನಲ್ಲಿ ಮಾದರಿಯು ತರಬೇತಿ ಪಡೆದಾಗ ಭ್ರಮೆಗಳು ಸಂಭವಿಸಬಹುದು.

ಸಂಕೀರ್ಣ ಮಾದರಿಗಳು:

ವಿಪರ್ಯಾಸವೆಂದರೆ, AI ಮಾದರಿಗಳು ಭ್ರಮೆಗಳಿಗೆ ಗುರಿಯಾಗಲು ಮತ್ತೊಂದು ಕಾರಣವೆಂದರೆ ಅವು ಅತ್ಯಂತ ಸಂಕೀರ್ಣ ಅಥವಾ ಆಳವಾದವು. ಏಕೆಂದರೆ ಸಂಕೀರ್ಣ ಮಾದರಿಗಳು ಹೆಚ್ಚಿನ ನಿಯತಾಂಕಗಳು ಮತ್ತು ಪದರಗಳನ್ನು ಹೊಂದಿದ್ದು ಅದು ಔಟ್‌ಪುಟ್‌ನಲ್ಲಿ ಶಬ್ದ ಅಥವಾ ದೋಷಗಳನ್ನು ಪರಿಚಯಿಸಬಹುದು.

ಪ್ರತಿಕೂಲ ದಾಳಿಗಳು:

ಕೆಲವು ಸಂದರ್ಭಗಳಲ್ಲಿ, AI ಮಾದರಿಯನ್ನು ಮೋಸಗೊಳಿಸಲು ಆಕ್ರಮಣಕಾರರಿಂದ AI ಭ್ರಮೆಗಳು ಉದ್ದೇಶಪೂರ್ವಕವಾಗಿ ಉತ್ಪತ್ತಿಯಾಗಬಹುದು. ಈ ರೀತಿಯ ದಾಳಿಗಳನ್ನು ಪ್ರತಿಕೂಲ ದಾಳಿ ಎಂದು ಕರೆಯಲಾಗುತ್ತದೆ. ಈ ಸೈಬರ್‌ಟಾಕ್‌ನ ಏಕೈಕ ಉದ್ದೇಶವು ತಪ್ಪುದಾರಿಗೆಳೆಯುವ ಡೇಟಾದೊಂದಿಗೆ AI ಮಾದರಿಗಳನ್ನು ಮೋಸಗೊಳಿಸುವುದು ಅಥವಾ ಕುಶಲತೆಯಿಂದ ಮಾಡುವುದು. ಇದು AI ತಪ್ಪಾದ ಅಥವಾ ಅನಿರೀಕ್ಷಿತ ಔಟ್‌ಪುಟ್ ಅನ್ನು ಉತ್ಪಾದಿಸಲು ಇನ್‌ಪುಟ್ ಡೇಟಾದಲ್ಲಿ ಸಣ್ಣ ಪ್ರಕ್ಷುಬ್ಧತೆಗಳನ್ನು ಪರಿಚಯಿಸುವುದನ್ನು ಒಳಗೊಂಡಿರುತ್ತದೆ. ಉದಾಹರಣೆಗೆ, ಆಕ್ರಮಣಕಾರನು ಚಿತ್ರಕ್ಕೆ ಶಬ್ದವನ್ನು ಸೇರಿಸಬಹುದು ಅಥವಾ ಮಸುಕುಗೊಳಿಸಬಹುದು, ಅದು ಮಾನವರಿಗೆ ಅಗ್ರಾಹ್ಯವಾಗಿರುತ್ತದೆ ಆದರೆ AI ಮಾದರಿಯಿಂದ ಅದನ್ನು ತಪ್ಪಾಗಿ ವರ್ಗೀಕರಿಸಬಹುದು. ಉದಾಹರಣೆಗೆ, ಕೆಳಗಿನ ಚಿತ್ರವನ್ನು ನೋಡಿ, ಬೆಕ್ಕು, ಇದು "ಗ್ವಾಕಮೋಲ್" ಎಂದು ಹೇಳುವಂತೆ InceptionV3 ಕಂಪೈಲರ್ ಅನ್ನು ಮೋಸಗೊಳಿಸಲು ಸ್ವಲ್ಪ ಮಾರ್ಪಡಿಸಲಾಗಿದೆ.


ಕ್ರೆಡಿಟ್:
ಅನೀಶ್ ಅಥಾಲ್ಯೆ , ಲ್ಯಾಬ್ಸಿಕ್ಸ್ ಸಂಶೋಧನಾ ಗುಂಪಿನ ಸದಸ್ಯ, ಅವರ ಗಮನವು ವಿರೋಧಿ ದಾಳಿಯ ಮೇಲೆ ಕೇಂದ್ರೀಕೃತವಾಗಿದೆ

ಬದಲಾವಣೆಗಳು ಸ್ಪಷ್ಟವಾಗಿ ಗೋಚರಿಸುವುದಿಲ್ಲ. ಮೇಲಿನ ಉದಾಹರಣೆಯಿಂದ ಸ್ಪಷ್ಟವಾಗುವಂತೆ ಮನುಷ್ಯನಿಗೆ, ಬದಲಾವಣೆಯು ಸಾಧ್ಯವಾಗುವುದಿಲ್ಲ. ಬಲಭಾಗದಲ್ಲಿರುವ ಚಿತ್ರವನ್ನು ಟ್ಯಾಬಿ ಕ್ಯಾಟ್ ಎಂದು ವರ್ಗೀಕರಿಸಲು ಮಾನವ ಓದುಗರಿಗೆ ಯಾವುದೇ ಸಮಸ್ಯೆ ಇರುವುದಿಲ್ಲ. ಆದರೆ ಚಿತ್ರಗಳು, ವೀಡಿಯೋಗಳು, ಪಠ್ಯ ಅಥವಾ ಆಡಿಯೋಗೆ ಸಣ್ಣ ಬದಲಾವಣೆಗಳನ್ನು ಮಾಡುವುದರಿಂದ AI ಸಿಸ್ಟಮ್ ಇಲ್ಲದಿರುವ ವಿಷಯಗಳನ್ನು ಗುರುತಿಸಲು ಅಥವಾ ಸ್ಟಾಪ್ ಚಿಹ್ನೆಯಂತಹ ವಿಷಯಗಳನ್ನು ನಿರ್ಲಕ್ಷಿಸಲು ಮೋಸಗೊಳಿಸಬಹುದು.

ಸ್ವಯಂ-ಚಾಲನಾ ಕಾರುಗಳು, ಬಯೋಮೆಟ್ರಿಕ್ ಪರಿಶೀಲನೆ, ವೈದ್ಯಕೀಯ ರೋಗನಿರ್ಣಯ, ವಿಷಯ ಫಿಲ್ಟರಿಂಗ್ ಇತ್ಯಾದಿಗಳಂತಹ ನಿಖರ ಮತ್ತು ವಿಶ್ವಾಸಾರ್ಹ ಮುನ್ನೋಟಗಳನ್ನು ಅವಲಂಬಿಸಿರುವ AI ವ್ಯವಸ್ಥೆಗಳಿಗೆ ಈ ರೀತಿಯ ದಾಳಿಗಳು ಗಂಭೀರ ಬೆದರಿಕೆಗಳನ್ನು ಒಡ್ಡುತ್ತವೆ.

AI ಭ್ರಮೆ ಎಷ್ಟು ಅಪಾಯಕಾರಿ?

AI ಭ್ರಮೆಗಳು ತುಂಬಾ ಅಪಾಯಕಾರಿಯಾಗಬಹುದು, ವಿಶೇಷವಾಗಿ ಯಾವ ರೀತಿಯ AI ವ್ಯವಸ್ಥೆಯು ಅವುಗಳನ್ನು ಅನುಭವಿಸುತ್ತಿದೆ ಎಂಬುದರ ಮೇಲೆ ಅವಲಂಬಿತವಾಗಿದೆ. ಯಾವುದೇ ಸ್ವಯಂ-ಚಾಲನಾ ವಾಹನಗಳು ಅಥವಾ AI ಸಹಾಯಕರು ಬಳಕೆದಾರರ ಹಣವನ್ನು ಖರ್ಚು ಮಾಡುವ ಸಾಮರ್ಥ್ಯ ಅಥವಾ ಆನ್‌ಲೈನ್‌ನಲ್ಲಿ ಅಹಿತಕರ ವಿಷಯವನ್ನು ಫಿಲ್ಟರ್ ಮಾಡಲು AI ವ್ಯವಸ್ಥೆಯನ್ನು ಸಂಪೂರ್ಣವಾಗಿ ನಂಬಲರ್ಹವಾಗಿರಬೇಕು.

ಆದರೆ ಈ ಗಂಟೆಯ ನಿರ್ವಿವಾದದ ಸತ್ಯವೆಂದರೆ AI ವ್ಯವಸ್ಥೆಗಳು ಸಂಪೂರ್ಣವಾಗಿ ವಿಶ್ವಾಸಾರ್ಹವಲ್ಲ ಆದರೆ ವಾಸ್ತವವಾಗಿ ಭ್ರಮೆಗಳಿಗೆ ಗುರಿಯಾಗುತ್ತವೆ. ಇಂದಿನ ಅತ್ಯಾಧುನಿಕ AI ಮಾದರಿಗಳು ಸಹ ಇದಕ್ಕೆ ಹೊರತಾಗಿಲ್ಲ.

ಉದಾಹರಣೆಗೆ, ಒಂದು ದಾಳಿಯ ಪ್ರದರ್ಶನವು ಗೂಗಲ್‌ನ ಕ್ಲೌಡ್ ಕಂಪ್ಯೂಟಿಂಗ್ ಸೇವೆಯನ್ನು ಹೆಲಿಕಾಪ್ಟರ್‌ನಂತೆ ಗನ್ ಅನ್ನು ಟೈಲಿಂಗ್ ಮಾಡಲು ಮೋಸಗೊಳಿಸಿತು. ಈ ಸಮಯದಲ್ಲಿ, ವ್ಯಕ್ತಿಯು ಶಸ್ತ್ರಸಜ್ಜಿತನಾಗಿಲ್ಲ ಎಂದು ಖಚಿತಪಡಿಸಿಕೊಳ್ಳಲು AI ಜವಾಬ್ದಾರನಾಗಿದ್ದರೆ ನೀವು ಊಹಿಸಬಲ್ಲಿರಾ?

ಮತ್ತೊಂದು ಪ್ರತಿಕೂಲ ದಾಳಿಯು ಸ್ಟಾಪ್ ಚಿಹ್ನೆಗೆ ಸಣ್ಣ ಚಿತ್ರವನ್ನು ಸೇರಿಸುವುದು ಹೇಗೆ AI ವ್ಯವಸ್ಥೆಗೆ ಅಗೋಚರವಾಗಿಸುತ್ತದೆ ಎಂಬುದನ್ನು ಪ್ರದರ್ಶಿಸಿತು. ಮೂಲಭೂತವಾಗಿ, ಇದರರ್ಥ ಸ್ವಯಂ ಚಾಲನಾ ಕಾರನ್ನು ರಸ್ತೆಯಲ್ಲಿ ಯಾವುದೇ ಸ್ಟಾಪ್ ಚಿಹ್ನೆ ಇಲ್ಲ ಎಂದು ಭ್ರಮೆಗೊಳಿಸಬಹುದು. ಸ್ವಯಂ ಚಾಲಿತ ಕಾರುಗಳು ಇಂದು ನಿಜವಾಗಿದ್ದರೆ ಎಷ್ಟು ಅಪಘಾತಗಳು ಸಂಭವಿಸಬಹುದು? ಅದಕ್ಕೇ ಅವರು ಈಗ ಇಲ್ಲ.

ನಾವು ಪ್ರಸ್ತುತ ಜನಪ್ರಿಯ ಚಾಟ್ ಶೋಗಳನ್ನು ಗಣನೆಗೆ ತೆಗೆದುಕೊಂಡರೂ ಸಹ, ಭ್ರಮೆಗಳು ತಪ್ಪಾದ ಔಟ್‌ಪುಟ್ ಅನ್ನು ರಚಿಸಬಹುದು. ಆದರೆ AI ಚಾಟ್‌ಬಾಟ್‌ಗಳು ಭ್ರಮೆಗೆ ಗುರಿಯಾಗುತ್ತವೆ ಮತ್ತು AI ಬಾಟ್‌ಗಳಿಂದ ಉತ್ಪತ್ತಿಯಾಗುವ ಔಟ್‌ಪುಟ್ ಅನ್ನು ಮೌಲ್ಯೀಕರಿಸುವುದಿಲ್ಲ ಎಂದು ತಿಳಿದಿಲ್ಲದ ಜನರು ಅಜಾಗರೂಕತೆಯಿಂದ ತಪ್ಪು ಮಾಹಿತಿಯನ್ನು ಹರಡಬಹುದು. ಇದು ಎಷ್ಟು ಅಪಾಯಕಾರಿ ಎಂದು ನಾವು ವಿವರಿಸಬೇಕಾಗಿಲ್ಲ.

ಇದಲ್ಲದೆ, ಪ್ರತಿಕೂಲ ದಾಳಿಗಳು ಒತ್ತುವ ಕಾಳಜಿಯಾಗಿದೆ. ಇಲ್ಲಿಯವರೆಗೆ, ಅವುಗಳನ್ನು ಪ್ರಯೋಗಾಲಯಗಳಲ್ಲಿ ಮಾತ್ರ ತೋರಿಸಲಾಗಿದೆ. ಆದರೆ ಮಿಷನ್-ಕ್ರಿಟಿಕಲ್ AI ವ್ಯವಸ್ಥೆಯು ನೈಜ ಜಗತ್ತಿನಲ್ಲಿ ಅವರನ್ನು ಎದುರಿಸಿದರೆ, ಪರಿಣಾಮಗಳು ವಿನಾಶಕಾರಿಯಾಗಬಹುದು.

ವಾಸ್ತವವೆಂದರೆ ನೈಸರ್ಗಿಕ ಭಾಷಾ ಮಾದರಿಗಳನ್ನು ರಕ್ಷಿಸಲು ತುಲನಾತ್ಮಕವಾಗಿ ಸುಲಭವಾಗಿದೆ. (ಇದು ಸುಲಭ ಎಂದು ನಾವು ಹೇಳುತ್ತಿಲ್ಲ; ಇದು ಇನ್ನೂ ತುಂಬಾ ಕಷ್ಟಕರವಾಗಿದೆ ಎಂದು ಸಾಬೀತುಪಡಿಸುತ್ತದೆ.) ಆದಾಗ್ಯೂ, ಕಂಪ್ಯೂಟರ್ ದೃಷ್ಟಿ ವ್ಯವಸ್ಥೆಗಳನ್ನು ರಕ್ಷಿಸುವುದು ಸಂಪೂರ್ಣವಾಗಿ ವಿಭಿನ್ನ ಸನ್ನಿವೇಶವಾಗಿದೆ. ಇದು ಹೆಚ್ಚು ಕಷ್ಟಕರವಾಗಿದೆ ಏಕೆಂದರೆ ನೈಸರ್ಗಿಕ ಜಗತ್ತಿನಲ್ಲಿ ತುಂಬಾ ವ್ಯತ್ಯಾಸವಿದೆ ಮತ್ತು ಚಿತ್ರಗಳು ಹೆಚ್ಚಿನ ಸಂಖ್ಯೆಯ ಪಿಕ್ಸೆಲ್‌ಗಳನ್ನು ಒಳಗೊಂಡಿರುತ್ತವೆ.

ಈ ಸಮಸ್ಯೆಯನ್ನು ಪರಿಹರಿಸಲು, ಪ್ರಪಂಚದ ಬಗ್ಗೆ ಹೆಚ್ಚು ಮಾನವ ದೃಷ್ಟಿಕೋನವನ್ನು ಹೊಂದಿರುವ AI ಪ್ರೋಗ್ರಾಂ ನಮಗೆ ಬೇಕಾಗಬಹುದು, ಇದು ಭ್ರಮೆಗಳಿಗೆ ಕಡಿಮೆ ಒಳಗಾಗುವಂತೆ ಮಾಡುತ್ತದೆ. ಸಂಶೋಧನೆ ನಡೆಯುತ್ತಿರುವಾಗ, ಪ್ರಕೃತಿಯಿಂದ ಸುಳಿವುಗಳನ್ನು ಪಡೆಯಲು ಮತ್ತು ಭ್ರಮೆಗಳ ಸಮಸ್ಯೆಯನ್ನು ತಪ್ಪಿಸಲು ಪ್ರಯತ್ನಿಸುವ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯಿಂದ ನಾವು ಇನ್ನೂ ಬಹಳ ದೂರದಲ್ಲಿದ್ದೇವೆ. ಸದ್ಯಕ್ಕೆ ಅವು ಕಟು ವಾಸ್ತವ.

ಸಾಮಾನ್ಯವಾಗಿ, AI ಭ್ರಮೆಗಳು ಒಂದು ಸಂಕೀರ್ಣ ವಿದ್ಯಮಾನವಾಗಿದ್ದು ಅದು ಅಂಶಗಳ ಸಂಯೋಜನೆಯಿಂದ ಉದ್ಭವಿಸಬಹುದು. AI ವ್ಯವಸ್ಥೆಗಳ ನಿಖರತೆ ಮತ್ತು ವಿಶ್ವಾಸಾರ್ಹತೆಯನ್ನು ಸುಧಾರಿಸಲು AI ಭ್ರಮೆಗಳನ್ನು ಪತ್ತೆಹಚ್ಚಲು ಮತ್ತು ತಗ್ಗಿಸಲು ಸಂಶೋಧಕರು ಸಕ್ರಿಯವಾಗಿ ವಿಧಾನಗಳನ್ನು ಅಭಿವೃದ್ಧಿಪಡಿಸುತ್ತಿದ್ದಾರೆ. ಆದರೆ ಯಾವುದೇ AI ವ್ಯವಸ್ಥೆಯೊಂದಿಗೆ ಸಂವಹನ ನಡೆಸುವಾಗ ನೀವು ಅವರ ಬಗ್ಗೆ ತಿಳಿದಿರಬೇಕು.

ಸಂಬಂಧಿತ ಪೋಸ್ಟ್ಗಳು
ಲೇಖನವನ್ನು ಪ್ರಕಟಿಸಿ

ಕಾಮೆಂಟ್ ಸೇರಿಸಿ