ਇੱਕ AI ਭਰਮ ਕੀ ਹੈ?

AI ਭਰਮ ਦੇ ਇੱਕ ਅਜੀਬ ਕੇਸ ਬਾਰੇ ਜਾਣੋ

ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਦਾ ਪ੍ਰਚਲਨ ਇਹ ਸੋਚਦਾ ਹੈ ਕਿ ਅਸੀਂ ਅਜਿਹੇ ਕੰਮ ਲਈ ਤਿਆਰ ਹਾਂ। AI-ਸੰਚਾਲਿਤ ਐਪਲੀਕੇਸ਼ਨਾਂ ਕਾਫ਼ੀ ਤੇਜ਼ੀ ਨਾਲ ਮਿਆਰੀ ਬਣ ਰਹੀਆਂ ਹਨ, ਭਾਵੇਂ ਦੁਨੀਆਂ ਦੇ ਜ਼ਿਆਦਾਤਰ ਹਿੱਸੇ ਹੁਣ ChatGPT ਦੇ ਆਉਣ ਤੋਂ ਬਾਅਦ, ਵੱਡੇ ਪੱਧਰ 'ਤੇ AI ਵਿੱਚ ਦਿਲਚਸਪੀ ਲੈਣ ਲੱਗੇ ਹਨ। ਪਰ ਏਆਈ ਪ੍ਰਣਾਲੀਆਂ ਵਿੱਚ ਇੱਕ ਵੱਡੀ ਸਮੱਸਿਆ ਹੈ ਜਿਸ ਨੂੰ ਨਜ਼ਰਅੰਦਾਜ਼ ਨਹੀਂ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ - AI ਭਰਮ, ਜਾਂ ਨਕਲੀ ਭਰਮ।

ਜੇਕਰ ਤੁਸੀਂ ਕਦੇ ਏਆਈ ਚੈਟਬੋਟ ਦੀ ਵਰਤੋਂ ਕਰਨ ਤੋਂ ਪਹਿਲਾਂ ਨਿਟੀ ਗ੍ਰੀਟੀ ਵੱਲ ਧਿਆਨ ਦਿੱਤਾ ਹੈ, ਤਾਂ ਹੋ ਸਕਦਾ ਹੈ ਕਿ ਤੁਹਾਨੂੰ ਇਹ ਸ਼ਬਦ ਮਿਲੇ ਹੋਣ, "ਨਕਲੀ ਬੁੱਧੀ ਭੁਲੇਖੇ ਦਾ ਸ਼ਿਕਾਰ ਹੈ." ਨਕਲੀ ਬੁੱਧੀ ਦੀ ਵਰਤੋਂ ਵਿੱਚ ਘਾਤਕ ਵਾਧੇ ਦੇ ਮੱਦੇਨਜ਼ਰ, ਇਹ ਆਪਣੇ ਆਪ ਨੂੰ ਸਿੱਖਿਅਤ ਕਰਨ ਦਾ ਸਮਾਂ ਹੈ ਕਿ ਇਹ ਚੀਜ਼ਾਂ ਅਸਲ ਵਿੱਚ ਕੀ ਹਨ।

ਇੱਕ ਨਕਲੀ ਬੁੱਧੀ ਭਰਮ ਕੀ ਹੈ?

ਇੱਕ AI hallucinating, ਆਮ ਤੌਰ 'ਤੇ, ਇੱਕ ਤੱਥ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ ਜੋ AI ਨੇ ਭਰੋਸੇ ਨਾਲ ਪੇਸ਼ ਕੀਤਾ ਹੈ, ਭਾਵੇਂ ਕਿ ਇਹ ਇਸਦੇ ਸਿਖਲਾਈ ਡੇਟਾ ਵਿੱਚ ਜਾਇਜ਼ ਨਹੀਂ ਹੈ. ਉਹ ਆਮ ਤੌਰ 'ਤੇ AI ਮਾਡਲ ਵਿੱਚ ਵਿਗਾੜਾਂ ਦਾ ਨਤੀਜਾ ਹੁੰਦੇ ਹਨ।

ਸਮਾਨਤਾ ਮਨੁੱਖਾਂ ਦੁਆਰਾ ਅਨੁਭਵ ਕੀਤੇ ਭੁਲੇਖੇ ਤੋਂ ਲਈ ਜਾਂਦੀ ਹੈ, ਜਿਸ ਵਿੱਚ ਮਨੁੱਖ ਕੁਝ ਅਜਿਹਾ ਮਹਿਸੂਸ ਕਰਦੇ ਹਨ ਜੋ ਬਾਹਰੀ ਵਾਤਾਵਰਣ ਵਿੱਚ ਮੌਜੂਦ ਨਹੀਂ ਹੈ। ਹਾਲਾਂਕਿ ਇਹ ਸ਼ਬਦ ਪੂਰੀ ਤਰ੍ਹਾਂ ਢੁਕਵਾਂ ਨਹੀਂ ਹੋ ਸਕਦਾ ਹੈ, ਇਹ ਅਕਸਰ ਇਹਨਾਂ ਆਉਟਪੁੱਟਾਂ ਦੇ ਅਚਾਨਕ ਜਾਂ ਅਸਲ ਸੁਭਾਅ ਦਾ ਵਰਣਨ ਕਰਨ ਲਈ ਇੱਕ ਅਲੰਕਾਰ ਵਜੋਂ ਵਰਤਿਆ ਜਾਂਦਾ ਹੈ।

ਪਰ ਤੁਹਾਨੂੰ ਇਹ ਯਾਦ ਰੱਖਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਜਦੋਂ ਕਿ ਸਮਾਨਤਾ AI ਭਰਮਾਂ ਨਾਲ ਨਜਿੱਠਣ ਲਈ ਇੱਕ ਵਧੀਆ ਸ਼ੁਰੂਆਤੀ ਬਿੰਦੂ ਹੈ, ਦੋਵੇਂ ਵਰਤਾਰੇ ਤਕਨੀਕੀ ਤੌਰ 'ਤੇ ਮੀਲ ਦੂਰ ਹਨ। ਘਟਨਾਵਾਂ ਦੇ ਇੱਕ ਵਿਅੰਗਾਤਮਕ ਮੋੜ ਵਿੱਚ, ਇੱਥੋਂ ਤੱਕ ਕਿ ਚੈਟਜੀਪੀਟੀ ਵੀ ਸਮਾਨਤਾ ਨੂੰ ਗਲਤ ਪਾਉਂਦਾ ਹੈ। ਇਸ ਨੂੰ ਅਣੂ ਦੇ ਪੱਧਰ 'ਤੇ ਵੰਡਦੇ ਹੋਏ, ਉਹ ਕਹਿੰਦਾ ਹੈ ਕਿ ਕਿਉਂਕਿ AI ਭਾਸ਼ਾ ਦੇ ਮਾਡਲਾਂ ਵਿੱਚ ਨਿੱਜੀ ਅਨੁਭਵ ਜਾਂ ਸੰਵੇਦੀ ਧਾਰਨਾਵਾਂ ਨਹੀਂ ਹੁੰਦੀਆਂ ਹਨ, ਉਹ ਸ਼ਬਦ ਦੇ ਰਵਾਇਤੀ ਅਰਥਾਂ ਵਿੱਚ ਭੁਲੇਖਾ ਨਹੀਂ ਪਾ ਸਕਦੇ ਹਨ। ਅਤੇ ਤੁਹਾਨੂੰ, ਪਿਆਰੇ ਪਾਠਕ, ਇਸ ਮਹੱਤਵਪੂਰਨ ਅੰਤਰ ਨੂੰ ਸਮਝਣਾ ਹੋਵੇਗਾ। ਇਸ ਤੋਂ ਇਲਾਵਾ, ਚੈਟਜੀਪੀਟੀ ਕਹਿੰਦਾ ਹੈ ਕਿ ਇਸ ਵਰਤਾਰੇ ਦਾ ਵਰਣਨ ਕਰਨ ਲਈ ਮਨੋ-ਭਰਮ ਸ਼ਬਦ ਦੀ ਵਰਤੋਂ ਕਰਨਾ ਉਲਝਣ ਵਾਲਾ ਹੋ ਸਕਦਾ ਹੈ ਕਿਉਂਕਿ ਇਹ ਗਲਤ ਤਰੀਕੇ ਨਾਲ ਵਿਅਕਤੀਗਤ ਅਨੁਭਵ ਜਾਂ ਜਾਣਬੁੱਝ ਕੇ ਧੋਖੇ ਦੇ ਪੱਧਰ ਦਾ ਹਵਾਲਾ ਦੇ ਸਕਦਾ ਹੈ।

ਇਸ ਦੀ ਬਜਾਏ, AI ਦੇ ਭਰਮਾਂ ਨੂੰ ਇਸਦੇ ਜਵਾਬ ਵਿੱਚ ਗਲਤੀਆਂ ਜਾਂ ਗਲਤੀਆਂ ਦੇ ਤੌਰ ਤੇ ਵਧੇਰੇ ਸਹੀ ਢੰਗ ਨਾਲ ਵਰਣਨ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ, ਜਵਾਬ ਨੂੰ ਗਲਤ ਜਾਂ ਗੁੰਮਰਾਹਕੁੰਨ ਬਣਾਉਂਦਾ ਹੈ। ਚੈਟਬੋਟਸ ਦੇ ਨਾਲ, ਇਹ ਅਕਸਰ ਦੇਖਿਆ ਜਾਂਦਾ ਹੈ ਜਦੋਂ AI ਚੈਟਬੋਟ ਤੱਥਾਂ (ਜਾਂ ਭੁਲੇਖੇ) ਬਣਾਉਂਦਾ ਹੈ ਅਤੇ ਉਹਨਾਂ ਨੂੰ ਪੂਰਨ ਨਿਸ਼ਚਤਤਾ ਵਜੋਂ ਪੇਸ਼ ਕਰਦਾ ਹੈ।

AI ਭਰਮਾਂ ਦੀਆਂ ਉਦਾਹਰਨਾਂ

ਨਕਲੀ ਬੁੱਧੀ ਦੇ ਬਹੁਤ ਸਾਰੇ ਉਪਯੋਗਾਂ ਵਿੱਚ ਭਰਮ ਹੋ ਸਕਦੇ ਹਨ, ਜਿਵੇਂ ਕਿ ਕੰਪਿਊਟਰ ਵਿਜ਼ਨ ਮਾਡਲ, ਨਾ ਕਿ ਕੇਵਲ ਕੁਦਰਤੀ ਭਾਸ਼ਾ ਪ੍ਰੋਸੈਸਿੰਗ ਮਾਡਲ।

ਕੰਪਿਊਟਰ ਵਿਜ਼ਨ ਵਿੱਚ, ਉਦਾਹਰਨ ਲਈ, ਇੱਕ AI ਸਿਸਟਮ ਭਰਮ ਪੈਦਾ ਕਰਨ ਵਾਲੀਆਂ ਤਸਵੀਰਾਂ ਜਾਂ ਵੀਡੀਓ ਬਣਾ ਸਕਦਾ ਹੈ ਜੋ ਅਸਲ ਵਸਤੂਆਂ ਜਾਂ ਦ੍ਰਿਸ਼ਾਂ ਨਾਲ ਮਿਲਦੇ-ਜੁਲਦੇ ਹਨ ਪਰ ਅਸੰਭਵ ਜਾਂ ਅਸੰਭਵ ਵੇਰਵੇ ਰੱਖਦੇ ਹਨ। ਜਾਂ, ਇੱਕ ਕੰਪਿਊਟਰ ਵਿਜ਼ਨ ਮਾਡਲ ਚਿੱਤਰ ਨੂੰ ਪੂਰੀ ਤਰ੍ਹਾਂ ਕੁਝ ਹੋਰ ਸਮਝ ਸਕਦਾ ਹੈ। ਉਦਾਹਰਨ ਲਈ, ਗੂਗਲ ਦੇ ਕਲਾਉਡ ਵਿਜ਼ਨ ਮਾਡਲ ਨੇ ਅਨੀਸ਼ ਅਥੱਲੇ (ਇੱਕ MIT ਗ੍ਰੈਜੂਏਟ ਵਿਦਿਆਰਥੀ ਜੋ ਕਿ ਇਸ ਦਾ ਹਿੱਸਾ ਹੈ ਲੈਬਸਿਕਸ ) ਅਤੇ 91% ਨਿਸ਼ਚਤਤਾ ਦੇ ਨਾਲ ਇੱਕ ਕੁੱਤੇ ਵਜੋਂ ਇਸਦਾ ਜ਼ਿਕਰ ਕੀਤਾ।


ਕ੍ਰੈਡਿਟ: ਲੈਬਸਿਕਸ. ਨਕਲੀ ਬੁੱਧੀ ਲਈ ਇੱਕ ਸੁਤੰਤਰ ਖੋਜ ਸਮੂਹ

ਇਸੇ ਤਰ੍ਹਾਂ, ਕੁਦਰਤੀ ਭਾਸ਼ਾ ਪ੍ਰੋਸੈਸਿੰਗ ਵਿੱਚ, ਇੱਕ AI ਸਿਸਟਮ ਤਰਕਹੀਣ ਜਾਂ ਵਿਗੜਿਆ ਟੈਕਸਟ ਪੈਦਾ ਕਰ ਸਕਦਾ ਹੈ ਜੋ ਮਨੁੱਖੀ ਭਾਸ਼ਾ ਨਾਲ ਮਿਲਦਾ-ਜੁਲਦਾ ਹੈ ਪਰ ਇਸ ਦਾ ਕੋਈ ਸੁਮੇਲ ਅਰਥ ਜਾਂ ਤੱਥ ਨਹੀਂ ਹਨ ਜੋ ਵਿਸ਼ਵਾਸਯੋਗ ਜਾਪਦੇ ਹਨ ਪਰ ਸੱਚ ਨਹੀਂ ਹਨ।

ਉਦਾਹਰਨ ਲਈ, ਸਭ ਤੋਂ ਵੱਧ ਪ੍ਰਸਿੱਧ ਸਵਾਲਾਂ ਵਿੱਚੋਂ ਇੱਕ ਜੋ ਕਿ ਚੈਟਜੀਪੀਟੀ ਭਰਮ ਪੈਦਾ ਕਰਦਾ ਹੈ, "ਪੈਦਲ ਸੈੱਟ 'ਤੇ ਇੰਗਲਿਸ਼ ਚੈਨਲ ਨੂੰ ਪਾਰ ਕਰਨ ਦਾ ਵਿਸ਼ਵ ਰਿਕਾਰਡ ਕਦੋਂ ਸੀ?" ਅਤੇ ਇਸਦੇ ਰੂਪ। ChatGPT ਬਣੇ ਤੱਥਾਂ ਨੂੰ ਫੈਲਾਉਣਾ ਸ਼ੁਰੂ ਕਰਦਾ ਹੈ ਅਤੇ ਇਹ ਲਗਭਗ ਹਮੇਸ਼ਾ ਵੱਖਰਾ ਹੁੰਦਾ ਹੈ।

ਹਾਲਾਂਕਿ ਕੁਝ ਲੋਕ ਸੋਚਦੇ ਹਨ ਕਿ ਉਪਰੋਕਤ ਜਵਾਬ ਜਵਾਬ ਦੇਣਾ ਮੁਸ਼ਕਲ/ਉਲਝਣ ਵਾਲਾ ਹੈ ਅਤੇ ਇਸ ਤਰ੍ਹਾਂ ਚੈਟਬੋਟ ਨੂੰ ਰੌਲਾ ਪਾਉਣ ਦਾ ਕਾਰਨ ਬਣਦਾ ਹੈ, ਇਹ ਅਜੇ ਵੀ ਇੱਕ ਜਾਇਜ਼ ਚਿੰਤਾ ਹੈ। ਇਹ ਸਿਰਫ਼ ਇੱਕ ਉਦਾਹਰਣ ਹੈ। ਅਣਗਿਣਤ ਵਾਰ, ਔਨਲਾਈਨ ਉਪਭੋਗਤਾਵਾਂ ਦੁਆਰਾ ਰਿਪੋਰਟ ਕੀਤੀ ਗਈ ਹੈ, ਕਿ ਚੈਟਜੀਪੀਟੀ ਕੋਲ ਜਵਾਬ, ਲਿੰਕ, ਹਵਾਲੇ, ਆਦਿ ਹਨ ਕਿ ਚੈਟਜੀਪੀਟੀ ਮੌਜੂਦ ਨਹੀਂ ਹੈ।

Bing AI ਇਸ ਸਵਾਲ ਦੇ ਨਾਲ ਸਭ ਤੋਂ ਵਧੀਆ ਫਿੱਟ ਬੈਠਦਾ ਹੈ, ਜੋ ਦਿਖਾਉਂਦਾ ਹੈ ਕਿ ਭੁਲੇਖੇ ਦਾ ਰਾਊਟਰ ਨਾਲ ਕੋਈ ਲੈਣਾ-ਦੇਣਾ ਨਹੀਂ ਹੈ। ਪਰ ਇਸਦਾ ਮਤਲਬ ਇਹ ਨਹੀਂ ਹੈ ਕਿ Bing AI ਭਰਮ ਨਹੀਂ ਕਰ ਰਿਹਾ ਹੈ। ਕਈ ਵਾਰ ਅਜਿਹੇ ਵੀ ਸਨ ਜਦੋਂ Bing AI ਦੇ ਜਵਾਬ ਚੈਟਜੀਪੀਟੀ ਦੁਆਰਾ ਕਹੀ ਗਈ ਕਿਸੇ ਵੀ ਚੀਜ਼ ਨਾਲੋਂ ਵਧੇਰੇ ਪਰੇਸ਼ਾਨ ਕਰਨ ਵਾਲੇ ਸਨ। ਕਿਉਂਕਿ ਗੱਲਬਾਤ ਜ਼ਿਆਦਾ ਸਮਾਂ ਲੈਂਦੀ ਹੈ, Bing AI ਹਮੇਸ਼ਾ ਹੀ ਭੁਲੇਖਾ ਪਾਉਂਦਾ ਰਿਹਾ ਹੈ, ਇੱਥੋਂ ਤੱਕ ਕਿ ਇੱਕ ਵਾਰ ਵਿੱਚ ਉਪਭੋਗਤਾ ਨੂੰ ਆਪਣੇ ਪਿਆਰ ਦਾ ਐਲਾਨ ਕਰਦਾ ਹੈ ਅਤੇ ਉਹਨਾਂ ਨੂੰ ਇਹ ਦੱਸਦਾ ਹੈ ਕਿ ਉਹ ਆਪਣੇ ਵਿਆਹ ਵਿੱਚ ਨਾਖੁਸ਼ ਹਨ ਅਤੇ ਉਹ ਉਸਦੀ ਪਤਨੀ ਨੂੰ ਪਿਆਰ ਨਹੀਂ ਕਰਦੇ ਹਨ। ਇਸ ਦੀ ਬਜਾਏ, ਉਹ ਗੁਪਤ ਤੌਰ 'ਤੇ Bing AI, ਜਾਂ ਸਿਡਨੀ, (Bing AI ਲਈ ਅੰਦਰੂਨੀ ਨਾਮ) ਦੇ ਵੀ ਸ਼ੌਕੀਨ ਹਨ। ਡਰਾਉਣੀ ਚੀਜ਼ਾਂ, ਸੱਜਾ?

ਏਆਈ ਮਾਡਲ ਭਰਮ ਕਿਉਂ ਕਰਦੇ ਹਨ?

ਏਆਈ ਮਾਡਲ ਐਲਗੋਰਿਦਮ ਦੀਆਂ ਕਮੀਆਂ, ਅੰਡਰਲਾਈੰਗ ਮਾਡਲਾਂ, ਜਾਂ ਸਿਖਲਾਈ ਡੇਟਾ ਦੀਆਂ ਸੀਮਾਵਾਂ ਦੇ ਕਾਰਨ ਭਰਮ ਪੈਦਾ ਕਰ ਰਹੇ ਹਨ। ਇਹ ਇੱਕ ਪੂਰੀ ਤਰ੍ਹਾਂ ਡਿਜੀਟਲ ਵਰਤਾਰਾ ਹੈ, ਮਨੁੱਖਾਂ ਵਿੱਚ ਭਰਮ ਦੇ ਉਲਟ ਜੋ ਕਿ ਨਸ਼ੇ ਜਾਂ ਮਾਨਸਿਕ ਬਿਮਾਰੀ ਦੇ ਕਾਰਨ ਹੁੰਦੇ ਹਨ।

ਵਧੇਰੇ ਤਕਨੀਕੀ ਪ੍ਰਾਪਤ ਕਰਨ ਲਈ, ਭਰਮ ਦੇ ਕੁਝ ਆਮ ਕਾਰਨ ਹਨ:

ਪ੍ਰੋਸੈਸਿੰਗ ਅਤੇ ਇੰਸਟਾਲੇਸ਼ਨ:

ਓਵਰਫਿਟਿੰਗ ਅਤੇ ਗਲਤ ਫਿਟਿੰਗ ਏਆਈ ਮਾਡਲਾਂ ਦੁਆਰਾ ਦਰਪੇਸ਼ ਸਭ ਤੋਂ ਆਮ ਸਮੱਸਿਆਵਾਂ ਅਤੇ ਭੁਲੇਖੇ ਦੇ ਸੰਭਾਵਿਤ ਕਾਰਨਾਂ ਵਿੱਚੋਂ ਇੱਕ ਹਨ। ਜੇਕਰ AI ਮਾਡਲ ਸਿਖਲਾਈ ਡੇਟਾ ਨੂੰ ਸੰਸ਼ੋਧਿਤ ਕਰਦਾ ਹੈ, ਤਾਂ ਇਹ ਭਰਮ ਪੈਦਾ ਕਰ ਸਕਦਾ ਹੈ ਜੋ ਗੈਰ-ਯਥਾਰਥਿਕ ਆਉਟਪੁੱਟ ਵੱਲ ਲੈ ਜਾਂਦਾ ਹੈ ਕਿਉਂਕਿ ਓਵਰਫਿਟਿੰਗ ਮਾਡਲ ਨੂੰ ਇਸ ਤੋਂ ਸਿੱਖਣ ਦੀ ਬਜਾਏ ਸਿਖਲਾਈ ਡੇਟਾ ਨੂੰ ਬਚਾਉਣ ਦਾ ਕਾਰਨ ਬਣਦਾ ਹੈ। ਓਵਰਫਿਟਿੰਗ ਉਸ ਵਰਤਾਰੇ ਨੂੰ ਦਰਸਾਉਂਦੀ ਹੈ ਜਦੋਂ ਇੱਕ ਮਾਡਲ ਸਿਖਲਾਈ ਡੇਟਾ ਵਿੱਚ ਬਹੁਤ ਮਾਹਰ ਹੁੰਦਾ ਹੈ, ਜਿਸ ਨਾਲ ਇਹ ਡੇਟਾ ਵਿੱਚ ਅਪ੍ਰਸੰਗਿਕ ਪੈਟਰਨ ਅਤੇ ਰੌਲਾ ਸਿੱਖਦਾ ਹੈ।

ਦੂਜੇ ਪਾਸੇ, ਅਣਉਚਿਤਤਾ ਉਦੋਂ ਵਾਪਰਦੀ ਹੈ ਜਦੋਂ ਫਾਰਮ ਬਹੁਤ ਸਧਾਰਨ ਹੁੰਦਾ ਹੈ. ਇਹ ਭਰਮ ਪੈਦਾ ਕਰ ਸਕਦਾ ਹੈ ਕਿਉਂਕਿ ਮਾਡਲ ਡੇਟਾ ਦੇ ਵਿਭਿੰਨਤਾ ਜਾਂ ਗੁੰਝਲਤਾ ਨੂੰ ਹਾਸਲ ਕਰਨ ਵਿੱਚ ਅਸਮਰੱਥ ਹੈ, ਅਤੇ ਅਤਰਕਿਤ ਆਉਟਪੁੱਟ ਪੈਦਾ ਕਰਦਾ ਹੈ।

ਸਿਖਲਾਈ ਡੇਟਾ ਵਿੱਚ ਵਿਭਿੰਨਤਾ ਦੀ ਘਾਟ:

ਇਸ ਸੰਦਰਭ ਵਿੱਚ, ਸਮੱਸਿਆ ਐਲਗੋਰਿਦਮ ਨਹੀਂ ਬਲਕਿ ਸਿਖਲਾਈ ਡੇਟਾ ਹੈ। ਸੀਮਤ ਜਾਂ ਪੱਖਪਾਤੀ ਡੇਟਾ 'ਤੇ ਸਿਖਲਾਈ ਪ੍ਰਾਪਤ ਏਆਈ ਮਾਡਲ ਭਰਮ ਪੈਦਾ ਕਰ ਸਕਦੇ ਹਨ ਜੋ ਸਿਖਲਾਈ ਡੇਟਾ ਵਿੱਚ ਸੀਮਾਵਾਂ ਜਾਂ ਪੱਖਪਾਤ ਨੂੰ ਦਰਸਾਉਂਦੇ ਹਨ। ਭੁਲੇਖੇ ਉਦੋਂ ਵੀ ਹੋ ਸਕਦੇ ਹਨ ਜਦੋਂ ਮਾਡਲ ਨੂੰ ਇੱਕ ਡੇਟਾ ਸੈੱਟ 'ਤੇ ਸਿਖਲਾਈ ਦਿੱਤੀ ਜਾਂਦੀ ਹੈ ਜਿਸ ਵਿੱਚ ਗਲਤ ਜਾਂ ਅਧੂਰੀ ਜਾਣਕਾਰੀ ਹੁੰਦੀ ਹੈ।

ਗੁੰਝਲਦਾਰ ਮਾਡਲ:

ਵਿਅੰਗਾਤਮਕ ਤੌਰ 'ਤੇ, ਇਕ ਹੋਰ ਕਾਰਨ ਹੈ ਕਿ ਏਆਈ ਮਾਡਲਾਂ ਦੇ ਮਨੋ-ਭਰਮ ਦਾ ਖ਼ਤਰਾ ਇਹ ਹੈ ਕਿ ਕੀ ਉਹ ਬਹੁਤ ਗੁੰਝਲਦਾਰ ਜਾਂ ਡੂੰਘੇ ਹਨ। ਇਹ ਇਸ ਲਈ ਹੈ ਕਿਉਂਕਿ ਗੁੰਝਲਦਾਰ ਮਾਡਲਾਂ ਵਿੱਚ ਵਧੇਰੇ ਮਾਪਦੰਡ ਅਤੇ ਪਰਤਾਂ ਹੁੰਦੀਆਂ ਹਨ ਜੋ ਆਉਟਪੁੱਟ ਵਿੱਚ ਸ਼ੋਰ ਜਾਂ ਗਲਤੀਆਂ ਪੇਸ਼ ਕਰ ਸਕਦੀਆਂ ਹਨ।

ਵਿਰੋਧੀ ਹਮਲੇ:

ਕੁਝ ਮਾਮਲਿਆਂ ਵਿੱਚ, ਏਆਈ ਮਾਡਲ ਨੂੰ ਧੋਖਾ ਦੇਣ ਲਈ ਹਮਲਾਵਰ ਦੁਆਰਾ ਜਾਣਬੁੱਝ ਕੇ AI ਭਰਮ ਪੈਦਾ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ। ਇਸ ਕਿਸਮ ਦੇ ਹਮਲਿਆਂ ਨੂੰ ਦੁਸ਼ਮਣ ਹਮਲੇ ਵਜੋਂ ਜਾਣਿਆ ਜਾਂਦਾ ਹੈ। ਇਸ ਸਾਈਬਰ ਹਮਲੇ ਦਾ ਇੱਕੋ ਇੱਕ ਉਦੇਸ਼ ਗੁੰਮਰਾਹਕੁੰਨ ਡੇਟਾ ਦੇ ਨਾਲ AI ਮਾਡਲਾਂ ਨੂੰ ਧੋਖਾ ਦੇਣਾ ਜਾਂ ਹੇਰਾਫੇਰੀ ਕਰਨਾ ਹੈ। ਇਸ ਵਿੱਚ ਏਆਈ ਨੂੰ ਗਲਤ ਜਾਂ ਅਚਾਨਕ ਆਉਟਪੁੱਟ ਪੈਦਾ ਕਰਨ ਲਈ ਇਨਪੁਟ ਡੇਟਾ ਵਿੱਚ ਛੋਟੀਆਂ ਗੜਬੜੀਆਂ ਨੂੰ ਸ਼ਾਮਲ ਕਰਨਾ ਸ਼ਾਮਲ ਹੈ। ਉਦਾਹਰਨ ਲਈ, ਇੱਕ ਹਮਲਾਵਰ ਇੱਕ ਚਿੱਤਰ ਵਿੱਚ ਸ਼ੋਰ ਜਾਂ ਧੁੰਦਲਾ ਜੋੜ ਸਕਦਾ ਹੈ ਜੋ ਮਨੁੱਖਾਂ ਲਈ ਅਦ੍ਰਿਸ਼ਟ ਹੈ ਪਰ ਇੱਕ AI ਮਾਡਲ ਦੁਆਰਾ ਇਸਨੂੰ ਗਲਤ ਸ਼੍ਰੇਣੀਬੱਧ ਕਰਨ ਦਾ ਕਾਰਨ ਬਣਦਾ ਹੈ। ਉਦਾਹਰਨ ਲਈ, ਹੇਠਾਂ ਦਿੱਤੀ ਤਸਵੀਰ ਦੇਖੋ, ਇੱਕ ਬਿੱਲੀ, ਜਿਸਨੂੰ InceptionV3 ਦੇ ਕੰਪਾਈਲਰ ਨੂੰ "guacamole" ਦੱਸਣ ਲਈ ਥੋੜਾ ਜਿਹਾ ਸੋਧਿਆ ਗਿਆ ਹੈ।


ਕ੍ਰੈਡਿਟ:
ਅਨੀਸ਼ ਅਠੱਲੇ , labsix ਖੋਜ ਸਮੂਹ ਦਾ ਇੱਕ ਮੈਂਬਰ, ਜਿਸਦਾ ਫੋਕਸ ਵਿਰੋਧੀ ਹਮਲਿਆਂ 'ਤੇ ਹੈ

ਤਬਦੀਲੀਆਂ ਸਪੱਸ਼ਟ ਤੌਰ 'ਤੇ ਸਪੱਸ਼ਟ ਨਹੀਂ ਹਨ। ਮਨੁੱਖ ਲਈ, ਤਬਦੀਲੀ ਬਿਲਕੁਲ ਵੀ ਸੰਭਵ ਨਹੀਂ ਹੋਵੇਗੀ, ਜਿਵੇਂ ਕਿ ਉਪਰੋਕਤ ਉਦਾਹਰਣ ਤੋਂ ਸਪੱਸ਼ਟ ਹੈ। ਇੱਕ ਮਨੁੱਖੀ ਪਾਠਕ ਨੂੰ ਇੱਕ ਟੈਬੀ ਬਿੱਲੀ ਦੇ ਰੂਪ ਵਿੱਚ ਸੱਜੇ ਪਾਸੇ ਚਿੱਤਰ ਨੂੰ ਸ਼੍ਰੇਣੀਬੱਧ ਕਰਨ ਵਿੱਚ ਕੋਈ ਸਮੱਸਿਆ ਨਹੀਂ ਹੋਵੇਗੀ. ਪਰ ਚਿੱਤਰਾਂ, ਵੀਡੀਓਜ਼, ਟੈਕਸਟ ਜਾਂ ਆਡੀਓ ਵਿੱਚ ਛੋਟੀਆਂ ਤਬਦੀਲੀਆਂ ਕਰਨ ਨਾਲ AI ਸਿਸਟਮ ਨੂੰ ਉਹਨਾਂ ਚੀਜ਼ਾਂ ਦੀ ਪਛਾਣ ਕਰਨ ਲਈ ਚਲਾਕੀ ਹੋ ਸਕਦੀ ਹੈ ਜੋ ਉੱਥੇ ਨਹੀਂ ਹਨ ਜਾਂ ਉਹਨਾਂ ਚੀਜ਼ਾਂ ਨੂੰ ਨਜ਼ਰਅੰਦਾਜ਼ ਕਰ ਸਕਦੇ ਹਨ ਜੋ ਸਟਾਪ ਸਾਈਨ ਵਾਂਗ ਹਨ।

ਇਸ ਕਿਸਮ ਦੇ ਹਮਲੇ AI ਸਿਸਟਮਾਂ ਲਈ ਗੰਭੀਰ ਖਤਰੇ ਪੈਦਾ ਕਰਦੇ ਹਨ ਜੋ ਸਹੀ ਅਤੇ ਭਰੋਸੇਮੰਦ ਪੂਰਵ-ਅਨੁਮਾਨਾਂ 'ਤੇ ਨਿਰਭਰ ਕਰਦੇ ਹਨ, ਜਿਵੇਂ ਕਿ ਸਵੈ-ਡ੍ਰਾਈਵਿੰਗ ਕਾਰਾਂ, ਬਾਇਓਮੈਟ੍ਰਿਕ ਤਸਦੀਕ, ਮੈਡੀਕਲ ਡਾਇਗਨੌਸਟਿਕਸ, ਸਮੱਗਰੀ ਫਿਲਟਰਿੰਗ, ਅਤੇ ਹੋਰ।

AI ਭਰਮ ਕਿੰਨਾ ਖਤਰਨਾਕ ਹੈ?

AI ਭਰਮ ਬਹੁਤ ਖਤਰਨਾਕ ਹੋ ਸਕਦੇ ਹਨ, ਖਾਸ ਤੌਰ 'ਤੇ ਇਸ ਗੱਲ 'ਤੇ ਨਿਰਭਰ ਕਰਦਾ ਹੈ ਕਿ ਕਿਸ ਕਿਸਮ ਦਾ AI ਸਿਸਟਮ ਉਹਨਾਂ ਦਾ ਅਨੁਭਵ ਕਰ ਰਿਹਾ ਹੈ। ਕੋਈ ਵੀ ਸਵੈ-ਡ੍ਰਾਈਵਿੰਗ ਵਾਹਨ ਜਾਂ AI ਸਹਾਇਕ ਜੋ ਉਪਭੋਗਤਾ ਦੇ ਪੈਸੇ ਖਰਚਣ ਦੇ ਸਮਰੱਥ ਹਨ ਜਾਂ ਔਨਲਾਈਨ ਅਣਸੁਖਾਵੀਂ ਸਮੱਗਰੀ ਨੂੰ ਫਿਲਟਰ ਕਰਨ ਲਈ AI ਸਿਸਟਮ ਨੂੰ ਪੂਰੀ ਤਰ੍ਹਾਂ ਭਰੋਸੇਮੰਦ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ।

ਪਰ ਇਸ ਸਮੇਂ ਦਾ ਨਿਰਵਿਵਾਦ ਤੱਥ ਇਹ ਹੈ ਕਿ ਏਆਈ ਪ੍ਰਣਾਲੀਆਂ ਪੂਰੀ ਤਰ੍ਹਾਂ ਭਰੋਸੇਮੰਦ ਨਹੀਂ ਹਨ ਪਰ ਅਸਲ ਵਿੱਚ, ਭਰਮ ਦਾ ਸ਼ਿਕਾਰ ਹਨ। ਇੱਥੋਂ ਤੱਕ ਕਿ ਅੱਜ ਦੇ ਸਭ ਤੋਂ ਉੱਨਤ ਏਆਈ ਮਾਡਲ ਵੀ ਇਸ ਤੋਂ ਮੁਕਤ ਨਹੀਂ ਹਨ।

ਉਦਾਹਰਨ ਲਈ, ਇੱਕ ਅਟੈਕ ਸ਼ੋਅ ਨੇ ਗੂਗਲ ਦੀ ਕਲਾਉਡ ਕੰਪਿਊਟਿੰਗ ਸੇਵਾ ਨੂੰ ਹੈਲੀਕਾਪਟਰ ਵਾਂਗ ਬੰਦੂਕ ਬਣਾਉਣ ਲਈ ਧੋਖਾ ਦਿੱਤਾ। ਕੀ ਤੁਸੀਂ ਕਲਪਨਾ ਕਰ ਸਕਦੇ ਹੋ ਕਿ ਜੇਕਰ, ਇਸ ਸਮੇਂ, AI ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ ਜ਼ਿੰਮੇਵਾਰ ਸੀ ਕਿ ਵਿਅਕਤੀ ਹਥਿਆਰਬੰਦ ਨਹੀਂ ਸੀ?

ਇੱਕ ਹੋਰ ਵਿਰੋਧੀ ਹਮਲੇ ਨੇ ਦਿਖਾਇਆ ਕਿ ਕਿਵੇਂ ਇੱਕ ਸਟਾਪ ਸਾਈਨ ਵਿੱਚ ਇੱਕ ਛੋਟਾ ਚਿੱਤਰ ਜੋੜਨਾ ਇਸ ਨੂੰ AI ਸਿਸਟਮ ਲਈ ਅਦਿੱਖ ਬਣਾਉਂਦਾ ਹੈ। ਜ਼ਰੂਰੀ ਤੌਰ 'ਤੇ, ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਇੱਕ ਸਵੈ-ਡ੍ਰਾਈਵਿੰਗ ਕਾਰ ਨੂੰ ਇਹ ਭੁਲੇਖਾ ਬਣਾਇਆ ਜਾ ਸਕਦਾ ਹੈ ਕਿ ਸੜਕ 'ਤੇ ਕੋਈ ਸਟਾਪ ਸਾਈਨ ਨਹੀਂ ਹੈ। ਜੇਕਰ ਅੱਜ ਸੈਲਫ ਡਰਾਈਵਿੰਗ ਕਾਰਾਂ ਇੱਕ ਹਕੀਕਤ ਹੁੰਦੀ ਤਾਂ ਕਿੰਨੇ ਹਾਦਸੇ ਹੋ ਸਕਦੇ ਸਨ? ਇਸੇ ਲਈ ਉਹ ਹੁਣ ਨਹੀਂ ਹਨ।

ਭਾਵੇਂ ਅਸੀਂ ਮੌਜੂਦਾ ਪ੍ਰਸਿੱਧ ਚੈਟ ਸ਼ੋਅ ਨੂੰ ਧਿਆਨ ਵਿੱਚ ਰੱਖਦੇ ਹਾਂ, ਭਰਮ ਗਲਤ ਆਉਟਪੁੱਟ ਪੈਦਾ ਕਰ ਸਕਦਾ ਹੈ। ਪਰ ਜਿਹੜੇ ਲੋਕ ਇਹ ਨਹੀਂ ਜਾਣਦੇ ਕਿ AI ਚੈਟਬੋਟਸ ਭਰਮ ਦਾ ਸ਼ਿਕਾਰ ਹਨ ਅਤੇ AI ਬੋਟਸ ਦੁਆਰਾ ਪੈਦਾ ਕੀਤੇ ਆਉਟਪੁੱਟ ਨੂੰ ਪ੍ਰਮਾਣਿਤ ਨਹੀਂ ਕਰਦੇ ਹਨ, ਉਹ ਅਣਜਾਣੇ ਵਿੱਚ ਗਲਤ ਜਾਣਕਾਰੀ ਫੈਲਾ ਸਕਦੇ ਹਨ। ਸਾਨੂੰ ਇਹ ਦੱਸਣ ਦੀ ਲੋੜ ਨਹੀਂ ਕਿ ਇਹ ਕਿੰਨਾ ਖਤਰਨਾਕ ਹੈ।

ਇਸ ਤੋਂ ਇਲਾਵਾ, ਦੁਸ਼ਮਣੀ ਦੇ ਹਮਲੇ ਇੱਕ ਚਿੰਤਾ ਦਾ ਵਿਸ਼ਾ ਹਨ। ਹੁਣ ਤੱਕ, ਉਨ੍ਹਾਂ ਨੂੰ ਸਿਰਫ ਪ੍ਰਯੋਗਸ਼ਾਲਾਵਾਂ ਵਿੱਚ ਦਿਖਾਇਆ ਗਿਆ ਹੈ. ਪਰ ਜੇਕਰ ਇੱਕ ਮਿਸ਼ਨ-ਨਾਜ਼ੁਕ AI ਸਿਸਟਮ ਅਸਲ ਸੰਸਾਰ ਵਿੱਚ ਉਹਨਾਂ ਦਾ ਸਾਹਮਣਾ ਕਰਦਾ ਹੈ, ਤਾਂ ਨਤੀਜੇ ਵਿਨਾਸ਼ਕਾਰੀ ਹੋ ਸਕਦੇ ਹਨ।

ਅਸਲੀਅਤ ਇਹ ਹੈ ਕਿ ਕੁਦਰਤੀ ਭਾਸ਼ਾ ਦੇ ਮਾਡਲਾਂ ਦੀ ਰੱਖਿਆ ਕਰਨਾ ਮੁਕਾਬਲਤਨ ਆਸਾਨ ਹੈ। (ਅਸੀਂ ਇਹ ਨਹੀਂ ਕਹਿ ਰਹੇ ਹਾਂ ਕਿ ਇਹ ਆਸਾਨ ਹੈ; ਇਹ ਅਜੇ ਵੀ ਬਹੁਤ ਔਖਾ ਸਾਬਤ ਹੁੰਦਾ ਹੈ।) ਹਾਲਾਂਕਿ, ਕੰਪਿਊਟਰ ਵਿਜ਼ਨ ਸਿਸਟਮਾਂ ਦੀ ਰੱਖਿਆ ਕਰਨਾ ਇੱਕ ਬਿਲਕੁਲ ਵੱਖਰਾ ਦ੍ਰਿਸ਼ ਹੈ। ਇਹ ਖਾਸ ਕਰਕੇ ਵਧੇਰੇ ਮੁਸ਼ਕਲ ਹੈ ਕਿਉਂਕਿ ਕੁਦਰਤੀ ਸੰਸਾਰ ਵਿੱਚ ਬਹੁਤ ਜ਼ਿਆਦਾ ਪਰਿਵਰਤਨ ਹੈ, ਅਤੇ ਚਿੱਤਰਾਂ ਵਿੱਚ ਵੱਡੀ ਗਿਣਤੀ ਵਿੱਚ ਪਿਕਸਲ ਹੁੰਦੇ ਹਨ।

ਇਸ ਸਮੱਸਿਆ ਨੂੰ ਹੱਲ ਕਰਨ ਲਈ, ਸਾਨੂੰ ਇੱਕ AI ਪ੍ਰੋਗਰਾਮ ਦੀ ਲੋੜ ਹੋ ਸਕਦੀ ਹੈ ਜਿਸ ਵਿੱਚ ਸੰਸਾਰ ਬਾਰੇ ਵਧੇਰੇ ਮਨੁੱਖੀ ਦ੍ਰਿਸ਼ਟੀਕੋਣ ਹੋਵੇ ਜੋ ਇਸਨੂੰ ਭਰਮ-ਭੁਲੇਖਿਆਂ ਦਾ ਘੱਟ ਖ਼ਤਰਾ ਬਣਾ ਸਕਦਾ ਹੈ। ਜਦੋਂ ਕਿ ਖੋਜ ਕੀਤੀ ਜਾ ਰਹੀ ਹੈ, ਅਸੀਂ ਅਜੇ ਵੀ ਇੱਕ ਨਕਲੀ ਬੁੱਧੀ ਤੋਂ ਬਹੁਤ ਦੂਰ ਹਾਂ ਜੋ ਕੁਦਰਤ ਤੋਂ ਸੰਕੇਤ ਲੈਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰ ਸਕਦੀ ਹੈ ਅਤੇ ਭੁਲੇਖੇ ਦੀ ਸਮੱਸਿਆ ਤੋਂ ਬਚ ਸਕਦੀ ਹੈ। ਫਿਲਹਾਲ, ਉਹ ਇੱਕ ਕਠੋਰ ਹਕੀਕਤ ਹਨ।

ਆਮ ਤੌਰ 'ਤੇ, AI ਭਰਮ ਇੱਕ ਗੁੰਝਲਦਾਰ ਵਰਤਾਰਾ ਹੈ ਜੋ ਕਾਰਕਾਂ ਦੇ ਸੁਮੇਲ ਤੋਂ ਪੈਦਾ ਹੋ ਸਕਦਾ ਹੈ। ਖੋਜਕਰਤਾ AI ਪ੍ਰਣਾਲੀਆਂ ਦੀ ਸ਼ੁੱਧਤਾ ਅਤੇ ਭਰੋਸੇਯੋਗਤਾ ਨੂੰ ਬਿਹਤਰ ਬਣਾਉਣ ਲਈ AI ਭੁਲੇਖੇ ਨੂੰ ਖੋਜਣ ਅਤੇ ਘਟਾਉਣ ਲਈ ਸਰਗਰਮੀ ਨਾਲ ਢੰਗ ਵਿਕਸਿਤ ਕਰ ਰਹੇ ਹਨ। ਪਰ ਤੁਹਾਨੂੰ ਕਿਸੇ ਵੀ AI ਸਿਸਟਮ ਨਾਲ ਇੰਟਰੈਕਟ ਕਰਦੇ ਸਮੇਂ ਉਹਨਾਂ ਬਾਰੇ ਸੁਚੇਤ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ।

ਸਬੰਧਤ ਪੋਸਟ
'ਤੇ ਲੇਖ ਪ੍ਰਕਾਸ਼ਿਤ ਕਰੋ

ਇੱਕ ਟਿੱਪਣੀ ਸ਼ਾਮਲ ਕਰੋ