ਛੋਟਾ ਜਵਾਬ: AI ਬਹੁਤ ਦੂਰ ਚਲਾ ਗਿਆ ਹੈ ਜਦੋਂ ਇਸਨੂੰ ਉੱਚ-ਦਾਅ ਵਾਲੇ ਫੈਸਲਿਆਂ, ਨਿਗਰਾਨੀ, ਜਾਂ ਪ੍ਰੇਰਨਾ ਵਿੱਚ ਬਿਨਾਂ ਕਿਸੇ ਪੱਕੀ ਸੀਮਾ, ਸੂਚਿਤ ਸਹਿਮਤੀ, ਅਤੇ ਅਪੀਲ ਕਰਨ ਦੇ ਅਸਲ ਅਧਿਕਾਰ ਦੇ ਤਾਇਨਾਤ ਕੀਤਾ ਜਾਂਦਾ ਹੈ। ਇਹ ਫਿਰ ਸੀਮਾ ਪਾਰ ਕਰਦਾ ਹੈ ਜਦੋਂ ਡੀਪ ਫੇਕ ਅਤੇ ਸਕੇਲੇਬਲ ਘੁਟਾਲੇ ਵਿਸ਼ਵਾਸ ਨੂੰ ਜੂਏ ਵਾਂਗ ਮਹਿਸੂਸ ਕਰਵਾਉਂਦੇ ਹਨ। ਜੇਕਰ ਲੋਕ ਇਹ ਨਹੀਂ ਦੱਸ ਸਕਦੇ ਕਿ AI ਨੇ ਇੱਕ ਭੂਮਿਕਾ ਨਿਭਾਈ ਹੈ, ਇਹ ਨਹੀਂ ਸਮਝ ਸਕਦੇ ਕਿ ਕੋਈ ਫੈਸਲਾ ਇਸ ਤਰ੍ਹਾਂ ਕਿਉਂ ਆਇਆ, ਜਾਂ ਬਾਹਰ ਨਹੀਂ ਨਿਕਲ ਸਕਦੇ, ਤਾਂ ਇਹ ਪਹਿਲਾਂ ਹੀ ਬਹੁਤ ਦੂਰ ਹੈ।
ਮੁੱਖ ਗੱਲਾਂ:
ਸੀਮਾਵਾਂ: ਪਰਿਭਾਸ਼ਿਤ ਕਰੋ ਕਿ ਸਿਸਟਮ ਕੀ ਨਹੀਂ ਕਰ ਸਕਦਾ, ਖਾਸ ਕਰਕੇ ਜਦੋਂ ਅਨਿਸ਼ਚਿਤਤਾ ਜ਼ਿਆਦਾ ਹੋਵੇ।
ਜਵਾਬਦੇਹੀ: ਇਹ ਯਕੀਨੀ ਬਣਾਓ ਕਿ ਮਨੁੱਖ ਬਿਨਾਂ ਕਿਸੇ ਜੁਰਮਾਨੇ ਜਾਂ ਸਮੇਂ ਦੇ ਦਬਾਅ ਦੇ ਜਾਲ ਦੇ ਨਤੀਜਿਆਂ ਨੂੰ ਓਵਰਰਾਈਡ ਕਰ ਸਕਣ।
ਪਾਰਦਰਸ਼ਤਾ: ਲੋਕਾਂ ਨੂੰ ਦੱਸੋ ਕਿ ਏਆਈ ਕਦੋਂ ਸ਼ਾਮਲ ਹੈ ਅਤੇ ਇਹ ਆਪਣੇ ਫੈਸਲੇ ਕਿਉਂ ਲਏ।
ਮੁਕਾਬਲਾਯੋਗਤਾ: ਤੇਜ਼, ਕਾਰਜਸ਼ੀਲ ਅਪੀਲ ਰੂਟ ਅਤੇ ਮਾੜੇ ਡੇਟਾ ਨੂੰ ਠੀਕ ਕਰਨ ਦੇ ਸਪੱਸ਼ਟ ਤਰੀਕੇ ਪ੍ਰਦਾਨ ਕਰੋ।
ਦੁਰਵਰਤੋਂ ਪ੍ਰਤੀਰੋਧ: ਘੁਟਾਲਿਆਂ ਅਤੇ ਦੁਰਵਰਤੋਂ ਨੂੰ ਰੋਕਣ ਲਈ ਉਤਪਤੀ, ਦਰ ਸੀਮਾਵਾਂ ਅਤੇ ਨਿਯੰਤਰਣ ਸ਼ਾਮਲ ਕਰੋ।
"ਕੀ ਏਆਈ ਬਹੁਤ ਦੂਰ ਚਲਾ ਗਿਆ ਹੈ?"
ਖਾਸ ਗੱਲ ਇਹ ਹੈ ਕਿ ਲਾਈਨ-ਕ੍ਰਾਸਿੰਗ ਹਮੇਸ਼ਾ ਸਪੱਸ਼ਟ ਨਹੀਂ ਹੁੰਦੀ। ਕਈ ਵਾਰ ਇਹ ਉੱਚੀ ਅਤੇ ਚਮਕਦਾਰ ਹੁੰਦੀ ਹੈ, ਜਿਵੇਂ ਕਿ ਇੱਕ ਡੀਪਫੇਕ ਘੁਟਾਲਾ। ( FTC , FBI ) ਕਈ ਵਾਰ ਇਹ ਸ਼ਾਂਤ ਹੁੰਦਾ ਹੈ - ਇੱਕ ਸਵੈਚਾਲਿਤ ਫੈਸਲਾ ਜੋ ਤੁਹਾਡੀ ਜ਼ਿੰਦਗੀ ਨੂੰ ਬਿਨਾਂ ਕਿਸੇ ਸਪੱਸ਼ਟੀਕਰਨ ਦੇ ਪਾਸੇ ਧੱਕਦਾ ਹੈ, ਅਤੇ ਤੁਹਾਨੂੰ ਇਹ ਅਹਿਸਾਸ ਵੀ ਨਹੀਂ ਹੁੰਦਾ ਕਿ ਤੁਹਾਨੂੰ "ਸਕੋਰ" ਕੀਤਾ ਗਿਆ ਸੀ। ( UK ICO , GDPR ਆਰਟ. 22 )
ਤਾਂ... ਕੀ AI ਬਹੁਤ ਅੱਗੇ ਵਧ ਗਿਆ ਹੈ? ਕੁਝ ਥਾਵਾਂ 'ਤੇ, ਹਾਂ। ਹੋਰ ਥਾਵਾਂ 'ਤੇ, ਇਹ ਕਾਫ਼ੀ ਦੂਰ ਨਹੀਂ ਗਿਆ ਹੈ - ਕਿਉਂਕਿ ਇਸਦੀ ਵਰਤੋਂ ਬਿਨਾਂ ਸੈਕਸੀ-ਪਰ-ਜ਼ਰੂਰੀ ਸੁਰੱਖਿਆ ਰੇਲਾਂ ਦੇ ਕੀਤੀ ਜਾ ਰਹੀ ਹੈ ਜੋ ਔਜ਼ਾਰਾਂ ਨੂੰ ਇੱਕ ਦੋਸਤਾਨਾ UI ਵਾਲੇ ਰੂਲੇਟ ਪਹੀਏ ਦੀ ਬਜਾਏ ਔਜ਼ਾਰਾਂ ਵਾਂਗ ਵਿਵਹਾਰ ਕਰਦੇ ਹਨ। 🎰🙂 ( NIST AI RMF 1.0 , EU AI ਐਕਟ )
ਇਸ ਤੋਂ ਬਾਅਦ ਤੁਸੀਂ ਜੋ ਲੇਖ ਪੜ੍ਹਨਾ ਪਸੰਦ ਕਰ ਸਕਦੇ ਹੋ:
🔗 ਏਆਈ ਸਮਾਜ ਲਈ ਨੁਕਸਾਨਦੇਹ ਕਿਉਂ ਹੋ ਸਕਦਾ ਹੈ
ਮੁੱਖ ਸਮਾਜਿਕ ਜੋਖਮ: ਪੱਖਪਾਤ, ਨੌਕਰੀਆਂ, ਨਿੱਜਤਾ, ਅਤੇ ਸ਼ਕਤੀ ਕੇਂਦਰੀਕਰਨ।.
🔗 ਕੀ AI ਵਾਤਾਵਰਣ ਲਈ ਮਾੜਾ ਹੈ? ਲੁਕਵੇਂ ਪ੍ਰਭਾਵ
ਸਿਖਲਾਈ, ਡੇਟਾ ਸੈਂਟਰ, ਅਤੇ ਊਰਜਾ ਦੀ ਵਰਤੋਂ ਕਿਵੇਂ ਨਿਕਾਸ ਨੂੰ ਵਧਾਉਂਦੀ ਹੈ।.
🔗 ਕੀ ਏਆਈ ਚੰਗਾ ਹੈ ਜਾਂ ਮਾੜਾ? ਫਾਇਦੇ ਅਤੇ ਨੁਕਸਾਨ
ਲਾਭਾਂ, ਜੋਖਮਾਂ, ਅਤੇ ਅਸਲ-ਸੰਸਾਰ ਵਪਾਰ ਦਾ ਸੰਤੁਲਿਤ ਸੰਖੇਪ ਜਾਣਕਾਰੀ।.
🔗 ਏਆਈ ਨੂੰ ਮਾੜਾ ਕਿਉਂ ਮੰਨਿਆ ਜਾਂਦਾ ਹੈ: ਹਨੇਰਾ ਪੱਖ
ਦੁਰਵਰਤੋਂ, ਹੇਰਾਫੇਰੀ, ਸੁਰੱਖਿਆ ਖਤਰਿਆਂ ਅਤੇ ਨੈਤਿਕ ਚਿੰਤਾਵਾਂ ਦੀ ਪੜਚੋਲ ਕਰਦਾ ਹੈ।.
ਜਦੋਂ ਲੋਕ ਕਹਿੰਦੇ ਹਨ ਕਿ "ਕੀ AI ਬਹੁਤ ਦੂਰ ਚਲਾ ਗਿਆ ਹੈ?" ਤਾਂ ਉਹਨਾਂ ਦਾ ਕੀ ਮਤਲਬ ਹੁੰਦਾ ਹੈ 😬
ਜ਼ਿਆਦਾਤਰ ਲੋਕ ਇਹ ਨਹੀਂ ਪੁੱਛ ਰਹੇ ਕਿ ਕੀ ਏਆਈ "ਸੰਵੇਦਨਸ਼ੀਲ" ਹੈ ਜਾਂ "ਕਬਜ਼ਾ ਸੰਭਾਲ ਰਿਹਾ ਹੈ।" ਉਹ ਇਹਨਾਂ ਵਿੱਚੋਂ ਇੱਕ ਵੱਲ ਇਸ਼ਾਰਾ ਕਰ ਰਹੇ ਹਨ:
-
ਏਆਈ ਦੀ ਵਰਤੋਂ ਉੱਥੇ ਕੀਤੀ ਜਾ ਰਹੀ ਹੈ ਜਿੱਥੇ ਇਸਦੀ ਵਰਤੋਂ ਨਹੀਂ ਕੀਤੀ ਜਾਣੀ ਚਾਹੀਦੀ। (ਖਾਸ ਕਰਕੇ ਉੱਚ-ਦਾਅ ਵਾਲੇ ਫੈਸਲੇ।) ( ਈਯੂ ਏਆਈ ਐਕਟ ਅਨੁਬੰਧ III , ਜੀਡੀਪੀਆਰ ਆਰਟ. 22 )
-
AI ਦੀ ਵਰਤੋਂ ਬਿਨਾਂ ਸਹਿਮਤੀ ਦੇ ਕੀਤੀ ਜਾ ਰਹੀ ਹੈ। (ਤੁਹਾਡਾ ਡੇਟਾ, ਤੁਹਾਡੀ ਆਵਾਜ਼, ਤੁਹਾਡਾ ਚਿਹਰਾ... ਹੈਰਾਨੀ।) ( ਯੂਕੇ ਆਈਸੀਓ , ਜੀਡੀਪੀਆਰ ਆਰਟ. 5 )
-
ਏਆਈ ਧਿਆਨ ਖਿੱਚਣ ਵਿੱਚ ਬਹੁਤ ਵਧੀਆ ਹੋ ਰਿਹਾ ਹੈ। (ਫੀਡ + ਨਿੱਜੀਕਰਨ + ਆਟੋਮੇਸ਼ਨ = ਸਟਿੱਕੀ।) ( ਓਈਸੀਡੀ ਏਆਈ ਸਿਧਾਂਤ )
-
ਏਆਈ ਸੱਚਾਈ ਨੂੰ ਵਿਕਲਪਿਕ ਮਹਿਸੂਸ ਕਰਵਾ ਰਿਹਾ ਹੈ। (ਡੀਪਫੇਕਸ, ਨਕਲੀ ਸਮੀਖਿਆਵਾਂ, ਸਿੰਥੈਟਿਕ "ਮਾਹਰ"।) ( ਯੂਰਪੀਅਨ ਕਮਿਸ਼ਨ , ਐਫਟੀਸੀ , ਸੀ2ਪੀਏ )
-
ਏਆਈ ਸ਼ਕਤੀ ਨੂੰ ਕੇਂਦਰਿਤ ਕਰ ਰਿਹਾ ਹੈ। (ਕੁਝ ਸਿਸਟਮ ਜੋ ਹਰ ਕੋਈ ਕੀ ਦੇਖਦਾ ਹੈ ਅਤੇ ਕੀ ਕਰ ਸਕਦਾ ਹੈ, ਉਸਨੂੰ ਆਕਾਰ ਦਿੰਦੇ ਹਨ।) ( ਯੂਕੇ ਸੀਐਮਏ )
"ਕੀ ਏਆਈ ਬਹੁਤ ਦੂਰ ਚਲਾ ਗਿਆ ਹੈ?" ਦਾ ਦਿਲ ਹੈ। ਇਹ ਇੱਕ ਪਲ ਵੀ ਨਹੀਂ ਹੈ। ਇਹ ਪ੍ਰੋਤਸਾਹਨਾਂ, ਸ਼ਾਰਟਕੱਟਾਂ, ਅਤੇ "ਅਸੀਂ ਇਸਨੂੰ ਬਾਅਦ ਵਿੱਚ ਠੀਕ ਕਰਾਂਗੇ" ਸੋਚ ਦਾ ਢੇਰ ਹੈ - ਜੋ ਕਿ, ਸਪੱਸ਼ਟ ਤੌਰ 'ਤੇ, "ਅਸੀਂ ਕਿਸੇ ਦੇ ਸੱਟ ਲੱਗਣ ਤੋਂ ਬਾਅਦ ਇਸਨੂੰ ਠੀਕ ਕਰਾਂਗੇ" ਵਿੱਚ ਅਨੁਵਾਦ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰਦਾ ਹੈ। 😑

ਇਹ ਸੱਚਾਈ ਬਹੁਤ ਹੀ ਗੁਪਤ ਨਹੀਂ ਹੈ: AI ਇੱਕ ਗੁਣਕ ਹੈ, ਇੱਕ ਨੈਤਿਕ ਕਾਰਕ ਨਹੀਂ 🔧✨
ਏਆਈ ਜਾਗ ਕੇ ਨੁਕਸਾਨਦੇਹ ਹੋਣ ਦਾ ਫੈਸਲਾ ਨਹੀਂ ਕਰਦਾ। ਲੋਕ ਅਤੇ ਸੰਗਠਨ ਇਸਦਾ ਟੀਚਾ ਰੱਖਦੇ ਹਨ। ਪਰ ਇਹ ਤੁਹਾਨੂੰ ਜੋ ਵੀ ਖੁਆਉਂਦੇ ਹਨ ਉਸਨੂੰ ਵਧਾ ਦਿੰਦਾ ਹੈ:
-
ਮਦਦਗਾਰ ਇਰਾਦਾ ਬਹੁਤ ਜ਼ਿਆਦਾ ਮਦਦਗਾਰ (ਅਨੁਵਾਦ, ਪਹੁੰਚਯੋਗਤਾ, ਸੰਖੇਪ, ਡਾਕਟਰੀ ਪੈਟਰਨ ਸਪਾਟਿੰਗ)।
-
ਢਿੱਲਾ ਇਰਾਦਾ ਬਹੁਤ ਜ਼ਿਆਦਾ ਢਿੱਲਾ (ਪੈਮਾਨੇ 'ਤੇ ਪੱਖਪਾਤ, ਗਲਤੀਆਂ ਦਾ ਸਵੈਚਾਲਨ)।
-
ਬੁਰਾ ਇਰਾਦਾ ਬਹੁਤ ਜ਼ਿਆਦਾ ਬੁਰਾ (ਧੋਖਾਧੜੀ, ਪਰੇਸ਼ਾਨੀ, ਪ੍ਰਚਾਰ, ਨਕਲ)।
ਇਹ ਇੱਕ ਛੋਟੇ ਬੱਚੇ ਨੂੰ ਮੈਗਾਫੋਨ ਦੇਣ ਵਰਗਾ ਹੈ। ਕਈ ਵਾਰ ਬੱਚਾ ਗਾਉਂਦਾ ਹੈ... ਕਈ ਵਾਰ ਬੱਚਾ ਸਿੱਧਾ ਤੁਹਾਡੀ ਰੂਹ ਵਿੱਚ ਚੀਕਦਾ ਹੈ। ਇਹ ਇੱਕ ਸੰਪੂਰਨ ਰੂਪਕ ਨਹੀਂ ਹੈ - ਥੋੜਾ ਮੂਰਖਤਾਪੂਰਨ - ਪਰ ਗੱਲ ਇੱਥੇ ਆਉਂਦੀ ਹੈ 😅📢।.
ਰੋਜ਼ਾਨਾ ਦੀਆਂ ਸੈਟਿੰਗਾਂ ਵਿੱਚ AI ਦਾ ਇੱਕ ਚੰਗਾ ਸੰਸਕਰਣ ਕੀ ਬਣਾਉਂਦਾ ਹੈ? ✅🤝
ਏਆਈ ਦਾ "ਚੰਗਾ ਸੰਸਕਰਣ" ਇਸ ਗੱਲ ਤੋਂ ਪਰਿਭਾਸ਼ਿਤ ਨਹੀਂ ਹੁੰਦਾ ਕਿ ਇਹ ਕਿੰਨਾ ਸਮਾਰਟ ਹੈ। ਇਹ ਇਸ ਗੱਲ ਤੋਂ ਪਰਿਭਾਸ਼ਿਤ ਹੁੰਦਾ ਹੈ ਕਿ ਇਹ ਦਬਾਅ, ਅਨਿਸ਼ਚਿਤਤਾ ਅਤੇ ਪਰਤਾਵੇ ਵਿੱਚ ਕਿੰਨਾ ਵਧੀਆ ਵਿਵਹਾਰ ਕਰਦਾ ਹੈ (ਅਤੇ ਮਨੁੱਖ ਸਸਤੇ ਆਟੋਮੇਸ਼ਨ ਦੁਆਰਾ ਬਹੁਤ ਪਰਤਾਏ ਜਾਂਦੇ ਹਨ)। ( NIST AI RMF 1.0 , OECD )
ਜਦੋਂ ਕੋਈ ਦਾਅਵਾ ਕਰਦਾ ਹੈ ਕਿ ਉਸਦੀ AI ਵਰਤੋਂ ਜ਼ਿੰਮੇਵਾਰ ਹੈ ਤਾਂ ਮੈਂ ਇੱਥੇ ਕੀ ਦੇਖਦਾ ਹਾਂ:
1) ਸਾਫ਼ ਸੀਮਾਵਾਂ
-
ਸਿਸਟਮ ਨੂੰ ਕੀ ਕਰਨ ਦੀ ਇਜਾਜ਼ਤ ਹੈ?
-
ਕੀ ਕਰਨ ਦੀ ਸਪੱਸ਼ਟ ਤੌਰ 'ਤੇ ਮਨਾਹੀ ਹੈ?
-
ਜਦੋਂ ਇਹ ਅਨਿਸ਼ਚਿਤ ਹੋਵੇ ਤਾਂ ਕੀ ਹੁੰਦਾ ਹੈ?
2) ਮਨੁੱਖੀ ਜਵਾਬਦੇਹੀ ਜੋ ਅਸਲੀ ਹੈ, ਸਜਾਵਟੀ ਨਹੀਂ
ਇੱਕ ਮਨੁੱਖੀ "ਸਮੀਖਿਆ" ਦੇ ਨਤੀਜੇ ਸਿਰਫ਼ ਤਾਂ ਹੀ ਮਾਇਨੇ ਰੱਖਦੇ ਹਨ ਜੇਕਰ:
-
ਉਹ ਸਮਝਦੇ ਹਨ ਕਿ ਉਹ ਕੀ ਸਮੀਖਿਆ ਕਰ ਰਹੇ ਹਨ, ਅਤੇ
-
ਉਹ ਚੀਜ਼ਾਂ ਨੂੰ ਹੌਲੀ ਕਰਨ ਲਈ ਸਜ਼ਾ ਦਿੱਤੇ ਬਿਨਾਂ ਇਸਨੂੰ ਓਵਰਰਾਈਡ ਕਰ ਸਕਦੇ ਹਨ।.
3) ਸਹੀ ਪੱਧਰ 'ਤੇ ਵਿਆਖਿਆਯੋਗਤਾ
ਹਰ ਕਿਸੇ ਨੂੰ ਗਣਿਤ ਦੀ ਲੋੜ ਨਹੀਂ ਹੁੰਦੀ। ਲੋਕਾਂ ਨੂੰ ਜ਼ਰੂਰ ਲੋੜ ਹੁੰਦੀ ਹੈ:
-
ਕਿਸੇ ਫੈਸਲੇ ਦੇ ਪਿੱਛੇ ਮੁੱਖ ਕਾਰਨ,
-
ਕਿਹੜਾ ਡੇਟਾ ਵਰਤਿਆ ਗਿਆ ਸੀ,
-
ਅਪੀਲ ਕਿਵੇਂ ਕਰਨੀ ਹੈ, ਠੀਕ ਕਿਵੇਂ ਕਰਨੀ ਹੈ, ਜਾਂ ਬਾਹਰ ਕਿਵੇਂ ਨਿਕਲਣਾ ਹੈ। ( ਯੂਕੇ ਆਈਸੀਓ )
4) ਮਾਪਣਯੋਗ ਪ੍ਰਦਰਸ਼ਨ - ਅਸਫਲਤਾ ਮੋਡਾਂ ਸਮੇਤ
ਸਿਰਫ਼ "ਸ਼ੁੱਧਤਾ" ਹੀ ਨਹੀਂ, ਸਗੋਂ:
-
ਕਿਸ 'ਤੇ ਇਹ ਅਸਫਲ ਹੁੰਦਾ ਹੈ,
-
ਕਿੰਨੀ ਵਾਰ ਇਹ ਚੁੱਪਚਾਪ ਅਸਫਲ ਹੋ ਜਾਂਦਾ ਹੈ,
-
ਜਦੋਂ ਦੁਨੀਆਂ ਬਦਲਦੀ ਹੈ ਤਾਂ ਕੀ ਹੁੰਦਾ ਹੈ। ( NIST AI RMF 1.0 )
5) ਗੋਪਨੀਯਤਾ ਅਤੇ ਸਹਿਮਤੀ ਜੋ "ਸੈਟਿੰਗਾਂ ਵਿੱਚ ਦੱਬੀ" ਨਹੀਂ ਹਨ
ਜੇਕਰ ਸਹਿਮਤੀ ਲਈ ਮੀਨੂ ਰਾਹੀਂ ਖਜ਼ਾਨੇ ਦੀ ਭਾਲ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ... ਤਾਂ ਇਹ ਸਹਿਮਤੀ ਨਹੀਂ ਹੈ। ਇਹ ਵਾਧੂ ਕਦਮਾਂ ਵਾਲਾ ਇੱਕ ਚੋਰ ਮੋਰੀ ਹੈ 😐🧾। ( GDPR ਆਰਟ. 5 , ਯੂਕੇ ICO )
ਤੁਲਨਾ ਸਾਰਣੀ: AI ਨੂੰ ਬਹੁਤ ਜ਼ਿਆਦਾ ਜਾਣ ਤੋਂ ਰੋਕਣ ਦੇ ਵਿਹਾਰਕ ਤਰੀਕੇ 🧰📊
ਹੇਠਾਂ "ਚੋਟੀ ਦੇ ਵਿਕਲਪ" ਇਸ ਅਰਥ ਵਿੱਚ ਦਿੱਤੇ ਗਏ ਹਨ ਕਿ ਉਹ ਆਮ ਗਾਰਡਰੇਲ ਜਾਂ ਸੰਚਾਲਨ ਸਾਧਨ ਹਨ ਜੋ ਨਤੀਜਿਆਂ ਨੂੰ ਬਦਲਦੇ ਹਨ (ਸਿਰਫ ਵਾਈਬਸ ਨਹੀਂ)।.
| ਔਜ਼ਾਰ / ਵਿਕਲਪ | ਦਰਸ਼ਕ | ਕੀਮਤ | ਇਹ ਕਿਉਂ ਕੰਮ ਕਰਦਾ ਹੈ |
|---|---|---|---|
| ਹਿਊਮਨ-ਇਨ-ਦ-ਲੂਪ ਸਮੀਖਿਆ ( ਈਯੂ ਏਆਈ ਐਕਟ ) | ਟੀਮਾਂ ਉੱਚ-ਦਾਅ ਵਾਲੇ ਕਾਲਾਂ ਕਰ ਰਹੀਆਂ ਹਨ | ££ (ਸਮੇਂ ਦੀ ਲਾਗਤ) | ਮਾੜੇ ਆਟੋਮੇਸ਼ਨ ਨੂੰ ਹੌਲੀ ਕਰਦਾ ਹੈ। ਇਸ ਤੋਂ ਇਲਾਵਾ, ਮਨੁੱਖ ਅਜੀਬੋ-ਗਰੀਬ ਮਾਮਲੇ ਦੇਖ ਸਕਦੇ ਹਨ, ਕਈ ਵਾਰ.. |
| ਫੈਸਲੇ ਦੀ ਅਪੀਲ ਪ੍ਰਕਿਰਿਆ ( GDPR ਧਾਰਾ 22 ) | AI ਫੈਸਲਿਆਂ ਤੋਂ ਪ੍ਰਭਾਵਿਤ ਉਪਭੋਗਤਾ | ਫ੍ਰੀ-ਇਸ਼ | ਢੁੱਕਵੀਂ ਪ੍ਰਕਿਰਿਆ ਜੋੜਦਾ ਹੈ। ਲੋਕ ਗਲਤ ਡੇਟਾ ਨੂੰ ਠੀਕ ਕਰ ਸਕਦੇ ਹਨ - ਇਹ ਬੁਨਿਆਦੀ ਲੱਗਦਾ ਹੈ ਕਿਉਂਕਿ ਇਹ ਬੁਨਿਆਦੀ ਹੈ। |
| ਆਡਿਟ ਲੌਗ + ਟਰੇਸੇਬਿਲਟੀ ( NIST SP 800-53 ) | ਪਾਲਣਾ, ਓਪਸ, ਸੁਰੱਖਿਆ | £-££ | ਅਸਫਲਤਾ ਤੋਂ ਬਾਅਦ ਮੋਢੇ ਉੱਚੇ ਕਰਨ ਦੀ ਬਜਾਏ, ਤੁਹਾਨੂੰ "ਕੀ ਹੋਇਆ?" ਦਾ ਜਵਾਬ ਦੇਣ ਦਿੰਦਾ ਹੈ |
| ਮਾਡਲ ਮੁਲਾਂਕਣ + ਪੱਖਪਾਤ ਟੈਸਟਿੰਗ ( NIST AI RMF 1.0 ) | ਉਤਪਾਦ + ਜੋਖਮ ਟੀਮਾਂ | ਬਹੁਤ ਕੁਝ ਬਦਲਦਾ ਹੈ | ਅਨੁਮਾਨਤ ਨੁਕਸਾਨ ਨੂੰ ਜਲਦੀ ਫੜ ਲੈਂਦਾ ਹੈ। ਸੰਪੂਰਨ ਨਹੀਂ, ਪਰ ਅਨੁਮਾਨ ਲਗਾਉਣ ਨਾਲੋਂ ਬਿਹਤਰ ਹੈ |
| ਲਾਲ-ਟੀਮ ਟੈਸਟਿੰਗ ( NIST GenAI ਪ੍ਰੋਫਾਈਲ ) | ਸੁਰੱਖਿਆ + ਸੁਰੱਖਿਆ ਵਾਲੇ ਲੋਕ | £££ | ਅਸਲ ਹਮਲਾਵਰਾਂ ਤੋਂ ਪਹਿਲਾਂ ਦੁਰਵਰਤੋਂ ਦੀ ਨਕਲ ਕਰਦਾ ਹੈ। ਕੋਝਾ, ਪਰ ਇਸਦੇ ਯੋਗ 😬 |
| ਡਾਟਾ ਘੱਟੋ-ਘੱਟ ਕਰਨਾ ( ਯੂਕੇ ਆਈਸੀਓ ) | ਹਰ ਕੋਈ, ਸਾਫ਼-ਸਾਫ਼ | £ | ਘੱਟ ਡਾਟਾ = ਘੱਟ ਗੜਬੜ। ਨਾਲ ਹੀ ਘੱਟ ਉਲੰਘਣਾਵਾਂ, ਘੱਟ ਅਜੀਬ ਗੱਲਬਾਤਾਂ |
| ਸਮੱਗਰੀ ਉਤਪਤੀ ਸੰਕੇਤ ( C2PA ) | ਪਲੇਟਫਾਰਮ, ਮੀਡੀਆ, ਉਪਭੋਗਤਾ | £-££ | "ਕੀ ਇਹ ਕਿਸੇ ਮਨੁੱਖ ਨੇ ਬਣਾਇਆ?" ਦੀ ਪੁਸ਼ਟੀ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕਰਦਾ ਹੈ - ਇਹ ਪੂਰੀ ਤਰ੍ਹਾਂ ਸੁਰੱਖਿਅਤ ਨਹੀਂ ਹੈ ਪਰ ਹਫੜਾ-ਦਫੜੀ ਨੂੰ ਘਟਾਉਂਦਾ ਹੈ। |
| ਦਰ ਸੀਮਾਵਾਂ + ਪਹੁੰਚ ਨਿਯੰਤਰਣ ( OWASP ) | ਏਆਈ ਪ੍ਰਦਾਤਾ + ਉੱਦਮ | £ | ਦੁਰਵਰਤੋਂ ਨੂੰ ਸਕੇਲਿੰਗ ਤੋਂ ਤੁਰੰਤ ਰੋਕਦਾ ਹੈ। ਮਾੜੇ ਅਦਾਕਾਰਾਂ ਲਈ ਸਪੀਡ ਬੰਪ ਵਾਂਗ |
ਹਾਂ, ਮੇਜ਼ ਥੋੜ੍ਹਾ ਜਿਹਾ ਅਸਮਾਨ ਹੈ। ਇਹੀ ਜ਼ਿੰਦਗੀ ਹੈ। 🙂
ਉੱਚ-ਦਾਅ ਵਾਲੇ ਫੈਸਲਿਆਂ ਵਿੱਚ AI: ਜਦੋਂ ਇਹ ਬਹੁਤ ਦੂਰ ਜਾਂਦਾ ਹੈ 🏥🏦⚖️
ਇਹ ਉਹ ਥਾਂ ਹੈ ਜਿੱਥੇ ਚੀਜ਼ਾਂ ਤੇਜ਼ੀ ਨਾਲ ਗੰਭੀਰ ਹੋ ਜਾਂਦੀਆਂ ਹਨ।.
ਸਿਹਤ ਸੰਭਾਲ , ਵਿੱਤ , ਰਿਹਾਇਸ਼ , ਰੁਜ਼ਗਾਰ , ਸਿੱਖਿਆ , ਇਮੀਗ੍ਰੇਸ਼ਨ , ਅਪਰਾਧਿਕ ਨਿਆਂ ਵਿੱਚ AI - ਇਹ ਉਹ ਪ੍ਰਣਾਲੀਆਂ ਹਨ ਜਿੱਥੇ: ( EU AI ਐਕਟ ਅਨੁਬੰਧ III , FDA )
-
ਇੱਕ ਗਲਤੀ ਕਿਸੇ ਨੂੰ ਪੈਸਾ, ਆਜ਼ਾਦੀ, ਮਾਣ, ਜਾਂ ਸੁਰੱਖਿਆ ਦੀ ਕੀਮਤ ਦੇ ਸਕਦੀ ਹੈ,
-
ਅਤੇ ਪ੍ਰਭਾਵਿਤ ਵਿਅਕਤੀ ਕੋਲ ਅਕਸਰ ਵਾਪਸ ਲੜਨ ਦੀ ਸੀਮਤ ਸ਼ਕਤੀ ਹੁੰਦੀ ਹੈ।.
ਵੱਡਾ ਜੋਖਮ "AI ਗਲਤੀਆਂ ਕਰਦਾ ਹੈ" ਇਹ ਨਹੀਂ ਹੈ। ਵੱਡਾ ਜੋਖਮ ਇਹ ਹੈ ਕਿ AI ਗਲਤੀਆਂ ਨੀਤੀ ਬਣ ਜਾਂਦੀਆਂ ਹਨ । ( NIST AI RMF 1.0 )
ਇੱਥੇ "ਬਹੁਤ ਦੂਰ" ਕਿਹੋ ਜਿਹਾ ਲੱਗਦਾ ਹੈ
-
ਬਿਨਾਂ ਕਿਸੇ ਵਿਆਖਿਆ ਦੇ ਸਵੈਚਾਲਿਤ ਫੈਸਲੇ: "ਕੰਪਿਊਟਰ ਨਹੀਂ ਕਹਿੰਦਾ।" ( ਯੂਕੇ ਆਈਸੀਓ )
-
"ਜੋਖਮ ਅੰਕ" ਨੂੰ ਅਨੁਮਾਨਾਂ ਦੀ ਬਜਾਏ ਤੱਥਾਂ ਵਾਂਗ ਮੰਨਿਆ ਜਾਂਦਾ ਹੈ।.
-
ਉਹ ਮਨੁੱਖ ਜੋ ਨਤੀਜਿਆਂ ਨੂੰ ਓਵਰਰਾਈਡ ਨਹੀਂ ਕਰ ਸਕਦੇ ਕਿਉਂਕਿ ਪ੍ਰਬੰਧਨ ਗਤੀ ਚਾਹੁੰਦਾ ਹੈ।.
-
ਉਹ ਡੇਟਾ ਜੋ ਗੰਦਾ, ਪੱਖਪਾਤੀ, ਪੁਰਾਣਾ, ਜਾਂ ਬਿਲਕੁਲ ਗਲਤ ਹੈ।.
ਕੀ ਸਮਝੌਤਾਯੋਗ ਨਹੀਂ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ
-
ਅਪੀਲ ਕਰਨ ਦਾ ਅਧਿਕਾਰ (ਤੇਜ਼, ਸਮਝਣ ਯੋਗ, ਕੋਈ ਭੁਲੇਖਾ ਨਹੀਂ)। ( GDPR ਆਰਟ. 22 , ਯੂਕੇ ICO )
-
ਇਹ ਜਾਣਨ ਦਾ ਹੱਕ ਕਿ ਏਆਈ ਸ਼ਾਮਲ ਸੀ। ( ਯੂਰਪੀਅਨ ਕਮਿਸ਼ਨ )
-
ਮਨੁੱਖੀ ਸਮੀਖਿਆ । ( NIST AI RMF 1.0 )
-
ਡੇਟਾ 'ਤੇ ਗੁਣਵੱਤਾ ਨਿਯੰਤਰਣ - ਕਿਉਂਕਿ ਕੂੜਾ ਅੰਦਰ, ਕੂੜਾ ਬਾਹਰ ਅਜੇ ਵੀ ਦਰਦਨਾਕ ਸੱਚ ਹੈ।
ਜੇਕਰ ਤੁਸੀਂ ਇੱਕ ਸਾਫ਼ ਲਕੀਰ ਖਿੱਚਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰ ਰਹੇ ਹੋ, ਤਾਂ ਇੱਥੇ ਇੱਕ ਹੈ:
ਜੇਕਰ ਇੱਕ AI ਸਿਸਟਮ ਕਿਸੇ ਦੀ ਜ਼ਿੰਦਗੀ ਨੂੰ ਭੌਤਿਕ ਤੌਰ 'ਤੇ ਬਦਲ ਸਕਦਾ ਹੈ, ਤਾਂ ਇਸਨੂੰ ਉਸੇ ਗੰਭੀਰਤਾ ਦੀ ਲੋੜ ਹੈ ਜਿਸਦੀ ਅਸੀਂ ਅਧਿਕਾਰ ਦੇ ਦੂਜੇ ਰੂਪਾਂ ਤੋਂ ਉਮੀਦ ਕਰਦੇ ਹਾਂ। ਸਾਈਨ ਅੱਪ ਨਾ ਕਰਨ ਵਾਲੇ ਲੋਕਾਂ 'ਤੇ ਕੋਈ "ਬੀਟਾ ਟੈਸਟਿੰਗ" ਨਹੀਂ। 🚫
ਡੀਪਫੇਕ, ਘੋਟਾਲੇ, ਅਤੇ "ਮੈਨੂੰ ਆਪਣੀਆਂ ਅੱਖਾਂ 'ਤੇ ਭਰੋਸਾ ਹੈ" ਦੀ ਹੌਲੀ ਮੌਤ 👀🧨
ਇਹ ਉਹ ਹਿੱਸਾ ਹੈ ਜੋ ਰੋਜ਼ਾਨਾ ਜੀਵਨ ਨੂੰ... ਫਿਸਲਣ ਵਾਲਾ ਮਹਿਸੂਸ ਕਰਵਾਉਂਦਾ ਹੈ।.
ਜਦੋਂ AI ਪੈਦਾ ਕਰ ਸਕਦਾ ਹੈ:
-
ਇੱਕ ਵੌਇਸ ਸੁਨੇਹਾ ਜੋ ਤੁਹਾਡੇ ਪਰਿਵਾਰਕ ਮੈਂਬਰ ਵਰਗਾ ਲੱਗਦਾ ਹੈ, ( FTC , FBI )
-
ਇੱਕ ਜਨਤਕ ਸ਼ਖਸੀਅਤ ਦਾ ਕੁਝ "ਕਹਿਣ" ਦਾ ਵੀਡੀਓ,
-
ਨਕਲੀ ਸਮੀਖਿਆਵਾਂ ਦਾ ਹੜ੍ਹ ਜੋ ਕਾਫ਼ੀ ਪ੍ਰਮਾਣਿਕ ਲੱਗਦੇ ਹਨ, ( FTC )
-
ਇੱਕ ਨਕਲੀ ਲਿੰਕਡਇਨ ਪ੍ਰੋਫਾਈਲ ਜਿਸ ਵਿੱਚ ਨਕਲੀ ਨੌਕਰੀ ਦਾ ਇਤਿਹਾਸ ਅਤੇ ਨਕਲੀ ਦੋਸਤ ਹਨ..
…ਇਹ ਸਿਰਫ਼ ਘੁਟਾਲਿਆਂ ਨੂੰ ਹੀ ਸਮਰੱਥ ਨਹੀਂ ਬਣਾਉਂਦਾ। ਇਹ ਸਮਾਜਿਕ ਗੂੰਦ ਨੂੰ ਕਮਜ਼ੋਰ ਕਰਦਾ ਹੈ ਜੋ ਅਜਨਬੀਆਂ ਨੂੰ ਤਾਲਮੇਲ ਬਣਾਉਣ ਦਿੰਦਾ ਹੈ। ਅਤੇ ਸਮਾਜ ਅਜਨਬੀਆਂ ਦੇ ਤਾਲਮੇਲ 'ਤੇ ਚੱਲਦਾ ਹੈ। 😵💫
"ਬਹੁਤ ਦੂਰ" ਸਿਰਫ਼ ਨਕਲੀ ਸਮੱਗਰੀ ਨਹੀਂ ਹੈ
ਇਹ ਅਸਮਾਨਤਾ :
-
ਝੂਠ ਪੈਦਾ ਕਰਨਾ ਸਸਤਾ ਹੈ।.
-
ਸੱਚ ਦੀ ਪੁਸ਼ਟੀ ਕਰਨਾ ਮਹਿੰਗਾ ਅਤੇ ਹੌਲੀ ਹੈ।.
-
ਅਤੇ ਜ਼ਿਆਦਾਤਰ ਲੋਕ ਰੁੱਝੇ ਹੋਏ, ਥੱਕੇ ਹੋਏ ਅਤੇ ਘੁੰਮ ਰਹੇ ਹਨ।.
ਕੀ ਮਦਦ ਕਰਦਾ ਹੈ (ਥੋੜਾ ਜਿਹਾ)
-
ਮੀਡੀਆ ਲਈ ਉਤਪਤੀ ਮਾਰਕਰ। ( C2PA )
-
ਵਾਇਰਲ ਹੋਣ ਲਈ ਰਗੜ - ਤੁਰੰਤ ਪੁੰਜ-ਵੰਡ ਨੂੰ ਹੌਲੀ ਕਰਨਾ।.
-
ਜਿੱਥੇ ਮਾਇਨੇ ਰੱਖਦਾ ਹੈ (ਵਿੱਤ, ਸਰਕਾਰੀ ਸੇਵਾਵਾਂ) ਉੱਥੇ ਬਿਹਤਰ ਪਛਾਣ ਤਸਦੀਕ।.
-
ਵਿਅਕਤੀਆਂ ਲਈ ਮੁੱਢਲੀਆਂ "ਬੈਂਡ ਤੋਂ ਬਾਹਰ ਦੀ ਪੁਸ਼ਟੀ ਕਰੋ" ਆਦਤਾਂ (ਵਾਪਸ ਕਾਲ ਕਰੋ, ਇੱਕ ਕੋਡ ਵਰਡ ਵਰਤੋ, ਕਿਸੇ ਹੋਰ ਚੈਨਲ ਰਾਹੀਂ ਪੁਸ਼ਟੀ ਕਰੋ)। ( FTC )
ਗਲੈਮਰਸ ਨਹੀਂ। ਪਰ ਸੀਟਬੈਲਟਾਂ ਵੀ ਨਹੀਂ ਹਨ, ਅਤੇ ਮੈਂ ਨਿੱਜੀ ਤੌਰ 'ਤੇ ਇਨ੍ਹਾਂ ਨਾਲ ਕਾਫ਼ੀ ਜੁੜਿਆ ਹੋਇਆ ਹਾਂ। 🚗
ਨਿਗਰਾਨੀ ਦੀ ਕਮੀ: ਜਦੋਂ AI ਚੁੱਪਚਾਪ ਹਰ ਚੀਜ਼ ਨੂੰ ਸੈਂਸਰ ਵਿੱਚ ਬਦਲ ਦਿੰਦਾ ਹੈ 📷🫥
ਇਹ ਡੀਪਫੇਕ ਵਾਂਗ ਨਹੀਂ ਫਟਦਾ। ਇਹ ਬਸ ਫੈਲਦਾ ਹੈ।.
AI ਇਸਨੂੰ ਆਸਾਨ ਬਣਾਉਂਦਾ ਹੈ:
-
ਟ੍ਰੈਕ ਮੂਵਮੈਂਟ ਪੈਟਰਨ,
-
ਵੀਡੀਓ ਤੋਂ ਭਾਵਨਾਵਾਂ ਦਾ ਅੰਦਾਜ਼ਾ ਲਗਾਓ (ਅਕਸਰ ਮਾੜੇ, ਪਰ ਭਰੋਸੇ ਨਾਲ), ( ਬੈਰੇਟ ਐਟ ਅਲ., 2019 , ਈਯੂ ਏਆਈ ਐਕਟ )
-
ਵਿਵਹਾਰ ਦੇ ਆਧਾਰ 'ਤੇ "ਜੋਖਮ" ਦੀ ਭਵਿੱਖਬਾਣੀ ਕਰੋ... ਜਾਂ ਤੁਹਾਡੇ ਆਂਢ-ਗੁਆਂਢ ਦੇ ਮਾਹੌਲ ਦੇ ਆਧਾਰ 'ਤੇ।.
ਅਤੇ ਭਾਵੇਂ ਇਹ ਗਲਤ ਹੋਵੇ, ਇਹ ਫਿਰ ਵੀ ਨੁਕਸਾਨਦੇਹ ਹੋ ਸਕਦਾ ਹੈ ਕਿਉਂਕਿ ਇਹ ਦਖਲਅੰਦਾਜ਼ੀ ਨੂੰ ਜਾਇਜ਼ ਠਹਿਰਾ ਸਕਦਾ ਹੈ। ਇੱਕ ਗਲਤ ਭਵਿੱਖਬਾਣੀ ਅਜੇ ਵੀ ਅਸਲ ਨਤੀਜੇ ਪੈਦਾ ਕਰ ਸਕਦੀ ਹੈ।.
ਬੇਆਰਾਮ ਜਿਹਾ ਹਿੱਸਾ
ਏਆਈ-ਸੰਚਾਲਿਤ ਨਿਗਰਾਨੀ ਅਕਸਰ ਇੱਕ ਸੁਰੱਖਿਆ ਕਹਾਣੀ ਵਿੱਚ ਲਪੇਟੀ ਹੁੰਦੀ ਹੈ:
-
"ਇਹ ਧੋਖਾਧੜੀ ਦੀ ਰੋਕਥਾਮ ਲਈ ਹੈ।"
-
"ਇਹ ਸੁਰੱਖਿਆ ਲਈ ਹੈ।"
-
"ਇਹ ਉਪਭੋਗਤਾ ਅਨੁਭਵ ਲਈ ਹੈ।"
ਕਈ ਵਾਰ ਇਹ ਸੱਚ ਹੁੰਦਾ ਹੈ। ਕਈ ਵਾਰ ਇਹ ਇਮਾਰਤਾਂ ਬਣਾਉਣ ਲਈ ਇੱਕ ਸੁਵਿਧਾਜਨਕ ਬਹਾਨਾ ਵੀ ਹੁੰਦਾ ਹੈ ਜਿਨ੍ਹਾਂ ਨੂੰ ਬਾਅਦ ਵਿੱਚ ਢਾਹਣਾ ਬਹੁਤ ਮੁਸ਼ਕਲ ਹੁੰਦਾ ਹੈ। ਜਿਵੇਂ ਕਿ ਆਪਣੇ ਘਰ ਵਿੱਚ ਇੱਕ-ਪਾਸੜ ਦਰਵਾਜ਼ਾ ਲਗਾਉਣਾ ਕਿਉਂਕਿ ਇਹ ਉਸ ਸਮੇਂ ਕੁਸ਼ਲ ਜਾਪਦਾ ਸੀ। ਦੁਬਾਰਾ, ਇੱਕ ਸੰਪੂਰਨ ਰੂਪਕ ਨਹੀਂ - ਇੱਕ ਤਰ੍ਹਾਂ ਦਾ ਹਾਸੋਹੀਣਾ - ਪਰ ਤੁਸੀਂ ਇਸਨੂੰ ਮਹਿਸੂਸ ਕਰਦੇ ਹੋ। 🚪😅
ਇੱਥੇ "ਚੰਗਾ" ਕਿਹੋ ਜਿਹਾ ਦਿਖਦਾ ਹੈ
-
ਰੱਖਣ ਅਤੇ ਸਾਂਝਾ ਕਰਨ 'ਤੇ ਸਖ਼ਤ ਸੀਮਾਵਾਂ।.
-
ਔਪਟ-ਆਉਟ ਸਾਫ਼ ਕਰੋ।.
-
ਵਰਤੋਂ ਦੇ ਮਾਮਲੇ ਸੀਮਤ।.
-
ਸੁਤੰਤਰ ਨਿਗਰਾਨੀ।.
-
ਸਜ਼ਾ ਜਾਂ ਗੇਟਕੀਪਿੰਗ ਲਈ ਕੋਈ "ਭਾਵਨਾ ਖੋਜ" ਨਹੀਂ ਵਰਤੀ ਜਾਂਦੀ। ਕਿਰਪਾ ਕਰਕੇ। 🙃 ( EU AI ਐਕਟ )
ਕੰਮ, ਰਚਨਾਤਮਕਤਾ, ਅਤੇ ਚੁੱਪਚਾਪ ਡੈਸਕਿਲਿੰਗ ਸਮੱਸਿਆ 🧑💻🎨
ਇਹ ਉਹ ਥਾਂ ਹੈ ਜਿੱਥੇ ਬਹਿਸ ਨਿੱਜੀ ਹੋ ਜਾਂਦੀ ਹੈ ਕਿਉਂਕਿ ਇਹ ਪਛਾਣ ਨੂੰ ਛੂੰਹਦੀ ਹੈ।.
ਏਆਈ ਲੋਕਾਂ ਨੂੰ ਵਧੇਰੇ ਉਤਪਾਦਕ ਬਣਾ ਸਕਦਾ ਹੈ। ਇਹ ਲੋਕਾਂ ਨੂੰ ਬਦਲਣਯੋਗ ਮਹਿਸੂਸ ਵੀ ਕਰਵਾ ਸਕਦਾ ਹੈ। ਦੋਵੇਂ ਇੱਕੋ ਸਮੇਂ, ਇੱਕੋ ਹਫ਼ਤੇ ਵਿੱਚ ਸੱਚ ਹੋ ਸਕਦੇ ਹਨ। ( OECD , WEF )
ਜਿੱਥੇ ਇਹ ਸੱਚਮੁੱਚ ਮਦਦਗਾਰ ਹੁੰਦਾ ਹੈ
-
ਰੁਟੀਨ ਟੈਕਸਟ ਤਿਆਰ ਕਰਨਾ ਤਾਂ ਜੋ ਮਨੁੱਖ ਸੋਚਣ 'ਤੇ ਧਿਆਨ ਕੇਂਦਰਿਤ ਕਰ ਸਕਣ।.
-
ਦੁਹਰਾਉਣ ਵਾਲੇ ਪੈਟਰਨਾਂ ਲਈ ਕੋਡਿੰਗ ਸਹਾਇਤਾ।.
-
ਪਹੁੰਚਯੋਗਤਾ ਟੂਲ (ਕੈਪਸ਼ਨਿੰਗ, ਸੰਖੇਪ, ਅਨੁਵਾਦ)।.
-
ਜਦੋਂ ਤੁਸੀਂ ਫਸ ਜਾਂਦੇ ਹੋ ਤਾਂ ਦਿਮਾਗੀ ਤੌਰ 'ਤੇ ਸੋਚ-ਵਿਚਾਰ ਕਰਨਾ।.
ਜਿੱਥੇ ਇਹ ਬਹੁਤ ਦੂਰ ਜਾਂਦਾ ਹੈ
-
ਤਬਦੀਲੀ ਯੋਜਨਾਵਾਂ ਤੋਂ ਬਿਨਾਂ ਭੂਮਿਕਾਵਾਂ ਨੂੰ ਬਦਲਣਾ।.
-
ਆਉਟਪੁੱਟ ਨੂੰ ਘਟਾਉਣ ਲਈ ਏਆਈ ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹੋਏ ਉਜਰਤਾਂ ਨੂੰ ਸਮਤਲ ਕਰਨਾ।.
-
ਰਚਨਾਤਮਕ ਕੰਮ ਨੂੰ ਅਨੰਤ ਮੁਫ਼ਤ ਸਿਖਲਾਈ ਡੇਟਾ ਵਾਂਗ ਸਮਝਣਾ, ਫਿਰ ਮੋਢੇ ਹਿਲਾਉਣਾ। ( ਯੂਐਸ ਕਾਪੀਰਾਈਟ ਆਫਿਸ , ਯੂਕੇ GOV.UK )
-
ਜੂਨੀਅਰ ਭੂਮਿਕਾਵਾਂ ਨੂੰ ਗਾਇਬ ਕਰਨਾ - ਜੋ ਉਦੋਂ ਤੱਕ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਲੱਗਦਾ ਹੈ ਜਦੋਂ ਤੱਕ ਤੁਹਾਨੂੰ ਇਹ ਅਹਿਸਾਸ ਨਹੀਂ ਹੁੰਦਾ ਕਿ ਤੁਸੀਂ ਉਸ ਪੌੜੀ ਨੂੰ ਸਾੜ ਦਿੱਤਾ ਹੈ ਜਿਸ 'ਤੇ ਭਵਿੱਖ ਦੇ ਮਾਹਰਾਂ ਨੂੰ ਚੜ੍ਹਨ ਦੀ ਲੋੜ ਹੈ।.
ਡਿਸਕਿਲਿੰਗ ਬਹੁਤ ਹੀ ਸੂਖਮ ਹੁੰਦੀ ਹੈ। ਤੁਸੀਂ ਇਸਨੂੰ ਰੋਜ਼-ਰੋਜ਼ ਧਿਆਨ ਨਹੀਂ ਦਿੰਦੇ। ਫਿਰ ਇੱਕ ਦਿਨ ਤੁਹਾਨੂੰ ਅਹਿਸਾਸ ਹੁੰਦਾ ਹੈ ਕਿ ਟੀਮ ਵਿੱਚ ਕਿਸੇ ਨੂੰ ਵੀ ਇਹ ਯਾਦ ਨਹੀਂ ਹੁੰਦਾ ਕਿ ਸਹਾਇਕ ਤੋਂ ਬਿਨਾਂ ਚੀਜ਼ ਕਿਵੇਂ ਕੰਮ ਕਰਦੀ ਹੈ। ਅਤੇ ਜੇਕਰ ਸਹਾਇਕ ਗਲਤ ਹੈ, ਤਾਂ ਤੁਸੀਂ ਸਾਰੇ ਇਕੱਠੇ ਵਿਸ਼ਵਾਸ ਨਾਲ ਗਲਤ ਹੋ... ਜੋ ਕਿ ਇੱਕ ਤਰ੍ਹਾਂ ਦਾ ਭਿਆਨਕ ਸੁਪਨਾ ਹੈ। 😬
ਪਾਵਰ ਇਕਾਗਰਤਾ: ਡਿਫਾਲਟ ਕੌਣ ਸੈੱਟ ਕਰ ਸਕਦਾ ਹੈ? 🏢⚡
ਭਾਵੇਂ AI "ਨਿਰਪੱਖ" ਹੈ (ਇਹ ਨਹੀਂ ਹੈ), ਜੋ ਵੀ ਇਸਨੂੰ ਕੰਟਰੋਲ ਕਰਦਾ ਹੈ ਉਹ ਆਕਾਰ ਦੇ ਸਕਦਾ ਹੈ:
-
ਕਿਹੜੀ ਜਾਣਕਾਰੀ ਤੱਕ ਪਹੁੰਚਣਾ ਆਸਾਨ ਹੈ,
-
ਕੀ ਤਰੱਕੀ ਜਾਂ ਦਫ਼ਨਾਇਆ ਜਾਂਦਾ ਹੈ,
-
ਕਿਹੜੀ ਭਾਸ਼ਾ ਦੀ ਇਜਾਜ਼ਤ ਹੈ,
-
ਕਿਹੜੇ ਵਿਵਹਾਰਾਂ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕੀਤਾ ਜਾਂਦਾ ਹੈ।.
ਅਤੇ ਕਿਉਂਕਿ ਏਆਈ ਸਿਸਟਮ ਬਣਾਉਣਾ ਅਤੇ ਚਲਾਉਣਾ ਮਹਿੰਗਾ ਹੋ ਸਕਦਾ ਹੈ, ਇਸ ਲਈ ਸ਼ਕਤੀ ਕੇਂਦਰਿਤ ਹੁੰਦੀ ਹੈ। ਇਹ ਸਾਜ਼ਿਸ਼ ਨਹੀਂ ਹੈ। ਇਹ ਤਕਨੀਕੀ ਹੂਡੀ ਵਾਲਾ ਅਰਥਸ਼ਾਸਤਰ ਹੈ। ( ਯੂਕੇ ਸੀਐਮਏ )
ਇੱਥੇ "ਬਹੁਤ ਦੂਰ" ਪਲ ਹੈ
ਜਦੋਂ ਡਿਫਾਲਟ ਅਦਿੱਖ ਕਾਨੂੰਨ ਬਣ ਜਾਂਦੇ ਹਨ:
-
ਤੁਹਾਨੂੰ ਨਹੀਂ ਪਤਾ ਕਿ ਕੀ ਫਿਲਟਰ ਕੀਤਾ ਜਾ ਰਿਹਾ ਹੈ,
-
ਤੁਸੀਂ ਤਰਕ ਦੀ ਜਾਂਚ ਨਹੀਂ ਕਰ ਸਕਦੇ,
-
ਅਤੇ ਤੁਸੀਂ ਕੰਮ, ਭਾਈਚਾਰੇ, ਜਾਂ ਬੁਨਿਆਦੀ ਸੇਵਾਵਾਂ ਤੱਕ ਪਹੁੰਚ ਗੁਆਏ ਬਿਨਾਂ ਅਸਲ ਵਿੱਚ ਬਾਹਰ ਨਹੀਂ ਨਿਕਲ ਸਕਦੇ।.
ਇੱਕ ਸਿਹਤਮੰਦ ਈਕੋਸਿਸਟਮ ਲਈ ਮੁਕਾਬਲੇ, ਪਾਰਦਰਸ਼ਤਾ ਅਤੇ ਅਸਲ ਉਪਭੋਗਤਾ ਪਸੰਦ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ। ਨਹੀਂ ਤਾਂ ਤੁਸੀਂ ਅਸਲ ਵਿੱਚ ਹਕੀਕਤ ਨੂੰ ਕਿਰਾਏ 'ਤੇ ਲੈ ਰਹੇ ਹੋ। 😵♂️
ਇੱਕ ਵਿਹਾਰਕ ਚੈੱਕਲਿਸਟ: ਇਹ ਕਿਵੇਂ ਪਤਾ ਲੱਗੇ ਕਿ AI ਤੁਹਾਡੀ ਦੁਨੀਆ ਵਿੱਚ ਬਹੁਤ ਦੂਰ ਜਾ ਰਿਹਾ ਹੈ 🧾🔍
ਇੱਥੇ ਇੱਕ ਅੰਤੜੀਆਂ ਦੀ ਜਾਂਚ ਸੂਚੀ ਹੈ ਜੋ ਮੈਂ ਵਰਤਦੀ ਹਾਂ (ਅਤੇ ਹਾਂ, ਇਹ ਅਪੂਰਣ ਹੈ):
ਜੇਕਰ ਤੁਸੀਂ ਇੱਕ ਵਿਅਕਤੀ ਹੋ
-
ਮੈਂ ਦੱਸ ਸਕਦਾ ਹਾਂ ਕਿ ਮੈਂ ਕਦੋਂ AI ਨਾਲ ਗੱਲਬਾਤ ਕਰ ਰਿਹਾ ਹਾਂ। ( ਯੂਰਪੀਅਨ ਕਮਿਸ਼ਨ )
-
ਇਹ ਸਿਸਟਮ ਮੈਨੂੰ ਓਵਰਸ਼ੇਅਰ ਕਰਨ ਲਈ ਮਜਬੂਰ ਕਰਦਾ ਹੈ।.
-
ਜੇਕਰ ਆਉਟਪੁੱਟ ਗਲਤ ਹੈ ਤਾਂ ਮੈਨੂੰ ਵਿਸ਼ਵਾਸਯੋਗ ਤਰੀਕੇ ਨਾਲ ਇਸ ਨਾਲ ਨਜਿੱਠਣ ਵਿੱਚ ਕੋਈ ਮੁਸ਼ਕਲ ਨਹੀਂ ਹੋਵੇਗੀ।.
-
ਜੇਕਰ ਇਸ ਨਾਲ ਮੇਰੇ ਨਾਲ ਧੋਖਾ ਹੋਇਆ, ਤਾਂ ਪਲੇਟਫਾਰਮ ਮੇਰੀ ਮਦਦ ਕਰੇਗਾ... ਨਹੀਂ ਤਾਂ ਇਹ ਮੋਢੇ ਹਿਲਾ ਦੇਵੇਗਾ।.
ਜੇਕਰ ਤੁਸੀਂ ਕੋਈ ਕਾਰੋਬਾਰ ਜਾਂ ਟੀਮ ਹੋ
-
ਅਸੀਂ AI ਦੀ ਵਰਤੋਂ ਇਸ ਲਈ ਕਰ ਰਹੇ ਹਾਂ ਕਿਉਂਕਿ ਇਹ ਕੀਮਤੀ ਹੈ, ਜਾਂ ਕਿਉਂਕਿ ਇਹ ਟ੍ਰੈਂਡੀ ਹੈ ਅਤੇ ਪ੍ਰਬੰਧਨ ਬੇਚੈਨ ਹੈ।.
-
ਅਸੀਂ ਜਾਣਦੇ ਹਾਂ ਕਿ ਸਿਸਟਮ ਕਿਹੜੇ ਡੇਟਾ ਨੂੰ ਛੂੰਹਦਾ ਹੈ।.
-
ਪ੍ਰਭਾਵਿਤ ਉਪਭੋਗਤਾ ਨਤੀਜਿਆਂ 'ਤੇ ਅਪੀਲ ਕਰ ਸਕਦਾ ਹੈ। ( ਯੂਕੇ ਆਈਸੀਓ )
-
ਮਨੁੱਖਾਂ ਨੂੰ ਮਾਡਲ ਨੂੰ ਓਵਰਰਾਈਡ ਕਰਨ ਦਾ ਅਧਿਕਾਰ ਦਿੱਤਾ ਗਿਆ ਹੈ।.
-
ਸਾਡੇ ਕੋਲ AI ਅਸਫਲਤਾਵਾਂ ਲਈ ਘਟਨਾ ਪ੍ਰਤੀਕਿਰਿਆ ਯੋਜਨਾਵਾਂ ਹਨ।.
-
ਅਸੀਂ ਡਰਾਫਟ, ਦੁਰਵਰਤੋਂ, ਅਤੇ ਅਸਾਧਾਰਨ ਕਿਨਾਰੇ ਦੇ ਮਾਮਲਿਆਂ ਦੀ ਨਿਗਰਾਨੀ ਕਰ ਰਹੇ ਹਾਂ।.
ਜੇਕਰ ਤੁਸੀਂ ਇਹਨਾਂ ਵਿੱਚੋਂ ਬਹੁਤ ਸਾਰੇ ਲੋਕਾਂ ਦਾ ਜਵਾਬ "ਨਹੀਂ" ਵਿੱਚ ਦਿੰਦੇ ਹੋ, ਤਾਂ ਇਸਦਾ ਮਤਲਬ ਇਹ ਨਹੀਂ ਕਿ ਤੁਸੀਂ ਬੁਰੇ ਹੋ। ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਤੁਸੀਂ "ਅਸੀਂ ਇਸਨੂੰ ਭੇਜਿਆ ਅਤੇ ਉਮੀਦ ਕੀਤੀ" ਦੀ ਆਮ ਮਨੁੱਖੀ ਸਥਿਤੀ ਵਿੱਚ ਹੋ। ਪਰ ਅਫ਼ਸੋਸ ਦੀ ਗੱਲ ਹੈ ਕਿ ਉਮੀਦ ਕਰਨਾ ਇੱਕ ਰਣਨੀਤੀ ਨਹੀਂ ਹੈ। 😅
ਸਮਾਪਤੀ ਨੋਟਸ 🧠✅
ਤਾਂ... ਕੀ AI ਬਹੁਤ ਦੂਰ ਚਲਾ ਗਿਆ ਹੈ?
ਇਹ ਬਹੁਤ ਦੂਰ ਚਲਾ ਗਿਆ ਹੈ ਜਿੱਥੇ ਇਸਨੂੰ ਜਵਾਬਦੇਹੀ ਤੋਂ ਬਿਨਾਂ ਤਾਇਨਾਤ ਕੀਤਾ ਜਾਂਦਾ ਹੈ , ਖਾਸ ਕਰਕੇ ਉੱਚ-ਦਾਅ ਵਾਲੇ ਫੈਸਲਿਆਂ, ਜਨਤਕ ਪ੍ਰੇਰਣਾ ਅਤੇ ਨਿਗਰਾਨੀ ਵਿੱਚ। ਇਹ ਬਹੁਤ ਦੂਰ ਚਲਾ ਗਿਆ ਹੈ ਜਿੱਥੇ ਇਹ ਵਿਸ਼ਵਾਸ ਨੂੰ ਖਤਮ ਕਰਦਾ ਹੈ - ਕਿਉਂਕਿ ਇੱਕ ਵਾਰ ਵਿਸ਼ਵਾਸ ਟੁੱਟ ਜਾਂਦਾ ਹੈ, ਸਮਾਜਿਕ ਤੌਰ 'ਤੇ ਬੋਲਦੇ ਹੋਏ, ਸਭ ਕੁਝ ਹੋਰ ਮਹਿੰਗਾ ਅਤੇ ਵਧੇਰੇ ਵਿਰੋਧੀ ਹੋ ਜਾਂਦਾ ਹੈ। ( NIST AI RMF 1.0 , EU AI ਐਕਟ )
ਪਰ ਏਆਈ ਸੁਭਾਵਿਕ ਤੌਰ 'ਤੇ ਨਾਕਾਮਯਾਬ ਜਾਂ ਸੁਭਾਵਿਕ ਤੌਰ 'ਤੇ ਸੰਪੂਰਨ ਨਹੀਂ ਹੈ। ਇਹ ਇੱਕ ਸ਼ਕਤੀਸ਼ਾਲੀ ਗੁਣਕ ਹੈ। ਸਵਾਲ ਇਹ ਹੈ ਕਿ ਕੀ ਅਸੀਂ ਗਾਰਡਰੇਲਾਂ ਨੂੰ ਓਨੀ ਹੀ ਹਮਲਾਵਰਤਾ ਨਾਲ ਬਣਾਉਂਦੇ ਹਾਂ ਜਿੰਨੀ ਅਸੀਂ ਸਮਰੱਥਾਵਾਂ ਨੂੰ ਬਣਾਉਂਦੇ ਹਾਂ।.
ਸੰਖੇਪ ਜਾਣਕਾਰੀ:
-
ਏਆਈ ਇੱਕ ਔਜ਼ਾਰ ਦੇ ਤੌਰ 'ਤੇ ਠੀਕ ਹੈ।.
-
ਇਹ ਇੱਕ ਗੈਰ-ਜਵਾਬਦੇਹ ਅਥਾਰਟੀ ਵਜੋਂ ਖ਼ਤਰਨਾਕ ਹੈ।.
-
ਜੇਕਰ ਕੋਈ ਅਪੀਲ ਨਹੀਂ ਕਰ ਸਕਦਾ, ਸਮਝ ਨਹੀਂ ਸਕਦਾ, ਜਾਂ ਬਾਹਰ ਨਹੀਂ ਨਿਕਲ ਸਕਦਾ - ਤਾਂ ਇਹੀ ਉਹ ਥਾਂ ਹੈ ਜਿੱਥੇ "ਬਹੁਤ ਦੂਰ" ਸ਼ੁਰੂ ਹੁੰਦਾ ਹੈ। 🚦 ( GDPR ਆਰਟ. 22 , UK ICO )
ਅਕਸਰ ਪੁੱਛੇ ਜਾਂਦੇ ਸਵਾਲ
ਕੀ ਰੋਜ਼ਾਨਾ ਜ਼ਿੰਦਗੀ ਵਿੱਚ AI ਬਹੁਤ ਅੱਗੇ ਵਧ ਗਿਆ ਹੈ?
ਬਹੁਤ ਸਾਰੀਆਂ ਥਾਵਾਂ 'ਤੇ, AI ਬਹੁਤ ਅੱਗੇ ਵਧ ਗਿਆ ਹੈ ਕਿਉਂਕਿ ਇਹ ਸਪੱਸ਼ਟ ਸੀਮਾਵਾਂ ਜਾਂ ਜਵਾਬਦੇਹੀ ਤੋਂ ਬਿਨਾਂ ਫੈਸਲਿਆਂ ਅਤੇ ਗੱਲਬਾਤ ਵਿੱਚ ਫਸਣਾ ਸ਼ੁਰੂ ਕਰ ਦਿੱਤਾ ਹੈ। ਸਮੱਸਿਆ ਬਹੁਤ ਘੱਟ "AI ਮੌਜੂਦ" ਹੈ; ਇਹ AI ਨੂੰ ਚੁੱਪ-ਚਾਪ ਭਰਤੀ, ਸਿਹਤ ਸੰਭਾਲ, ਗਾਹਕ ਸੇਵਾ, ਅਤੇ ਫੀਡ ਵਿੱਚ ਪਤਲੀ ਨਿਗਰਾਨੀ ਨਾਲ ਜੋੜਿਆ ਜਾ ਰਿਹਾ ਹੈ। ਜਦੋਂ ਲੋਕ ਇਹ ਨਹੀਂ ਦੱਸ ਸਕਦੇ ਕਿ ਇਹ AI ਹੈ, ਨਤੀਜਿਆਂ ਦਾ ਮੁਕਾਬਲਾ ਨਹੀਂ ਕਰ ਸਕਦੇ, ਜਾਂ ਬਾਹਰ ਨਹੀਂ ਆ ਸਕਦੇ, ਤਾਂ ਇਹ ਇੱਕ ਔਜ਼ਾਰ ਵਾਂਗ ਮਹਿਸੂਸ ਕਰਨਾ ਬੰਦ ਕਰ ਦਿੰਦਾ ਹੈ ਅਤੇ ਇੱਕ ਸਿਸਟਮ ਵਾਂਗ ਮਹਿਸੂਸ ਕਰਨਾ ਸ਼ੁਰੂ ਕਰ ਦਿੰਦਾ ਹੈ।.
ਉੱਚ-ਦਾਅ ਵਾਲੇ ਫੈਸਲਿਆਂ ਵਿੱਚ "ਏਆਈ ਬਹੁਤ ਦੂਰ ਜਾ ਰਿਹਾ ਹੈ" ਕਿਹੋ ਜਿਹਾ ਦਿਖਾਈ ਦਿੰਦਾ ਹੈ?
ਇੰਝ ਲੱਗਦਾ ਹੈ ਕਿ AI ਦੀ ਵਰਤੋਂ ਸਿਹਤ ਸੰਭਾਲ, ਵਿੱਤ, ਰਿਹਾਇਸ਼, ਰੁਜ਼ਗਾਰ, ਸਿੱਖਿਆ, ਇਮੀਗ੍ਰੇਸ਼ਨ, ਜਾਂ ਅਪਰਾਧਿਕ ਨਿਆਂ ਵਿੱਚ ਬਿਨਾਂ ਮਜ਼ਬੂਤ ਗਾਰਡਰੇਲਾਂ ਦੇ ਕੀਤੀ ਜਾ ਰਹੀ ਹੈ। ਕੇਂਦਰੀ ਮੁੱਦਾ ਇਹ ਨਹੀਂ ਹੈ ਕਿ ਮਾਡਲ ਗਲਤੀਆਂ ਕਰਦੇ ਹਨ; ਇਹ ਹੈ ਕਿ ਉਹ ਗਲਤੀਆਂ ਨੀਤੀ ਵਿੱਚ ਸਖ਼ਤ ਹੋ ਜਾਂਦੀਆਂ ਹਨ ਅਤੇ ਚੁਣੌਤੀ ਦੇਣਾ ਔਖਾ ਹੋ ਜਾਂਦਾ ਹੈ। "ਕੰਪਿਊਟਰ ਨਹੀਂ ਕਹਿੰਦਾ" ਫੈਸਲੇ ਪਤਲੇ ਸਪੱਸ਼ਟੀਕਰਨਾਂ ਅਤੇ ਕੋਈ ਅਰਥਪੂਰਨ ਅਪੀਲਾਂ ਦੇ ਨਾਲ ਹੁੰਦੇ ਹਨ ਜਿੱਥੇ ਨੁਕਸਾਨ ਤੇਜ਼ੀ ਨਾਲ ਵੱਧਦਾ ਹੈ।.
ਮੈਂ ਕਿਵੇਂ ਦੱਸ ਸਕਦਾ ਹਾਂ ਕਿ ਕੋਈ ਸਵੈਚਾਲਿਤ ਫੈਸਲਾ ਮੈਨੂੰ ਪ੍ਰਭਾਵਿਤ ਕਰ ਰਿਹਾ ਹੈ, ਅਤੇ ਮੈਂ ਕੀ ਕਰ ਸਕਦਾ ਹਾਂ?
ਇੱਕ ਆਮ ਸੰਕੇਤ ਇੱਕ ਅਚਾਨਕ ਨਤੀਜਾ ਹੁੰਦਾ ਹੈ ਜਿਸਦਾ ਤੁਸੀਂ ਹਿਸਾਬ ਨਹੀਂ ਲਗਾ ਸਕਦੇ: ਇੱਕ ਅਸਵੀਕਾਰ, ਪਾਬੰਦੀ, ਜਾਂ ਬਿਨਾਂ ਕਿਸੇ ਸਪੱਸ਼ਟ ਕਾਰਨ ਦੇ "ਜੋਖਮ ਸਕੋਰ" ਵਾਈਬ। ਬਹੁਤ ਸਾਰੇ ਸਿਸਟਮਾਂ ਨੂੰ ਇਹ ਖੁਲਾਸਾ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ ਕਿ AI ਨੇ ਕਦੋਂ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਭੂਮਿਕਾ ਨਿਭਾਈ, ਅਤੇ ਤੁਹਾਨੂੰ ਫੈਸਲੇ ਦੇ ਪਿੱਛੇ ਮੁੱਖ ਕਾਰਨਾਂ ਅਤੇ ਇਸਦੀ ਅਪੀਲ ਕਰਨ ਲਈ ਕਦਮਾਂ ਦੀ ਬੇਨਤੀ ਕਰਨ ਦੇ ਯੋਗ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ। ਅਭਿਆਸ ਵਿੱਚ, ਮਨੁੱਖੀ ਸਮੀਖਿਆ ਦੀ ਮੰਗ ਕਰੋ, ਕਿਸੇ ਵੀ ਗਲਤ ਡੇਟਾ ਨੂੰ ਠੀਕ ਕਰੋ, ਅਤੇ ਇੱਕ ਸਿੱਧੇ ਔਪਟ-ਆਉਟ ਮਾਰਗ ਲਈ ਅੱਗੇ ਵਧੋ।.
ਕੀ ਏਆਈ ਗੋਪਨੀਯਤਾ, ਸਹਿਮਤੀ ਅਤੇ ਡੇਟਾ ਵਰਤੋਂ ਦੇ ਮਾਮਲੇ ਵਿੱਚ ਬਹੁਤ ਅੱਗੇ ਵਧ ਗਿਆ ਹੈ?
ਇਹ ਅਕਸਰ ਉਦੋਂ ਹੁੰਦਾ ਹੈ ਜਦੋਂ ਸਹਿਮਤੀ ਇੱਕ ਖੁਰਦ-ਬੁਰਦ ਸ਼ਿਕਾਰ ਬਣ ਜਾਂਦੀ ਹੈ ਅਤੇ ਡੇਟਾ ਸੰਗ੍ਰਹਿ "ਸਿਰਫ਼ ਇਸ ਸਥਿਤੀ ਵਿੱਚ" ਫੈਲ ਜਾਂਦਾ ਹੈ। ਲੇਖ ਦਾ ਮੁੱਖ ਨੁਕਤਾ ਇਹ ਹੈ ਕਿ ਗੋਪਨੀਯਤਾ ਅਤੇ ਸਹਿਮਤੀ ਬਹੁਤ ਜ਼ਿਆਦਾ ਭਾਰ ਨਹੀਂ ਰੱਖਦੀਆਂ ਜੇਕਰ ਉਹਨਾਂ ਨੂੰ ਸੈਟਿੰਗਾਂ ਵਿੱਚ ਦੱਬਿਆ ਜਾਂਦਾ ਹੈ ਜਾਂ ਅਸਪਸ਼ਟ ਸ਼ਬਦਾਂ ਦੁਆਰਾ ਮਜਬੂਰ ਕੀਤਾ ਜਾਂਦਾ ਹੈ। ਇੱਕ ਸਿਹਤਮੰਦ ਪਹੁੰਚ ਡੇਟਾ ਨੂੰ ਘੱਟ ਤੋਂ ਘੱਟ ਕਰਨਾ ਹੈ: ਘੱਟ ਇਕੱਠਾ ਕਰੋ, ਘੱਟ ਰੱਖੋ, ਅਤੇ ਚੋਣਾਂ ਨੂੰ ਸਪੱਸ਼ਟ ਬਣਾਓ ਤਾਂ ਜੋ ਲੋਕ ਬਾਅਦ ਵਿੱਚ ਹੈਰਾਨ ਨਾ ਹੋਣ।.
ਡੀਪਫੇਕ ਅਤੇ ਏਆਈ ਘੁਟਾਲੇ ਔਨਲਾਈਨ "ਟਰੱਸਟ" ਦੇ ਅਰਥ ਨੂੰ ਕਿਵੇਂ ਬਦਲਦੇ ਹਨ?
ਉਹ ਯਕੀਨਨ ਨਕਲੀ ਆਵਾਜ਼ਾਂ, ਵੀਡੀਓਜ਼, ਸਮੀਖਿਆਵਾਂ ਅਤੇ ਪਛਾਣਾਂ ਪੈਦਾ ਕਰਨ ਦੀ ਲਾਗਤ ਨੂੰ ਘਟਾ ਕੇ ਸੱਚ ਨੂੰ ਵਿਕਲਪਿਕ ਮਹਿਸੂਸ ਕਰਵਾਉਂਦੇ ਹਨ। ਅਸਮਾਨਤਾ ਸਮੱਸਿਆ ਹੈ: ਝੂਠ ਪੈਦਾ ਕਰਨਾ ਸਸਤਾ ਹੈ, ਜਦੋਂ ਕਿ ਸੱਚ ਦੀ ਪੁਸ਼ਟੀ ਕਰਨਾ ਹੌਲੀ ਅਤੇ ਥਕਾ ਦੇਣ ਵਾਲਾ ਹੈ। ਵਿਹਾਰਕ ਬਚਾਅ ਵਿੱਚ ਮੀਡੀਆ ਲਈ ਉਤਪਤੀ ਸੰਕੇਤ, ਵਾਇਰਲ ਸਾਂਝਾਕਰਨ ਨੂੰ ਹੌਲੀ ਕਰਨਾ, ਮਜ਼ਬੂਤ ਪਛਾਣ ਜਾਂਚਾਂ ਜਿੱਥੇ ਇਹ ਮਾਇਨੇ ਰੱਖਦਾ ਹੈ, ਅਤੇ "ਬੈਂਡ ਤੋਂ ਬਾਹਰ ਦੀ ਪੁਸ਼ਟੀ ਕਰੋ" ਆਦਤਾਂ ਜਿਵੇਂ ਕਿ ਵਾਪਸ ਕਾਲ ਕਰਨਾ ਜਾਂ ਸਾਂਝਾ ਕੋਡ ਸ਼ਬਦ ਵਰਤਣਾ ਸ਼ਾਮਲ ਹਨ।.
ਏਆਈ ਨੂੰ ਬਹੁਤ ਦੂਰ ਜਾਣ ਤੋਂ ਰੋਕਣ ਲਈ ਸਭ ਤੋਂ ਵਿਹਾਰਕ ਗਾਰਡਰੇਲ ਕੀ ਹਨ?
ਨਤੀਜਿਆਂ ਨੂੰ ਬਦਲਣ ਵਾਲੀਆਂ ਗਾਰਡਰੇਲਾਂ ਵਿੱਚ ਉੱਚ-ਦਾਅ ਵਾਲੀਆਂ ਕਾਲਾਂ ਲਈ ਅਸਲ ਮਨੁੱਖੀ-ਇਨ-ਦੀ-ਲੂਪ ਸਮੀਖਿਆ, ਸਪਸ਼ਟ ਅਪੀਲ ਪ੍ਰਕਿਰਿਆਵਾਂ, ਅਤੇ ਆਡਿਟ ਲੌਗ ਸ਼ਾਮਲ ਹਨ ਜੋ ਅਸਫਲਤਾਵਾਂ ਤੋਂ ਬਾਅਦ "ਕੀ ਹੋਇਆ?" ਦਾ ਜਵਾਬ ਦੇ ਸਕਦੇ ਹਨ। ਮਾਡਲ ਮੁਲਾਂਕਣ ਅਤੇ ਪੱਖਪਾਤ ਟੈਸਟਿੰਗ ਪਹਿਲਾਂ ਅਨੁਮਾਨਤ ਨੁਕਸਾਨਾਂ ਨੂੰ ਫੜ ਸਕਦੀ ਹੈ, ਜਦੋਂ ਕਿ ਰੈੱਡ-ਟੀਮ ਟੈਸਟਿੰਗ ਹਮਲਾਵਰਾਂ ਦੇ ਕਰਨ ਤੋਂ ਪਹਿਲਾਂ ਦੁਰਵਰਤੋਂ ਦੀ ਨਕਲ ਕਰਦੀ ਹੈ। ਦਰ ਸੀਮਾਵਾਂ ਅਤੇ ਪਹੁੰਚ ਨਿਯੰਤਰਣ ਦੁਰਵਰਤੋਂ ਨੂੰ ਤੁਰੰਤ ਸਕੇਲਿੰਗ ਤੋਂ ਰੋਕਣ ਵਿੱਚ ਸਹਾਇਤਾ ਕਰਦੇ ਹਨ, ਅਤੇ ਡੇਟਾ ਨੂੰ ਘੱਟੋ-ਘੱਟ ਕਰਨਾ ਬੋਰਡ ਭਰ ਵਿੱਚ ਜੋਖਮ ਨੂੰ ਘਟਾਉਂਦਾ ਹੈ।.
ਏਆਈ-ਸੰਚਾਲਿਤ ਨਿਗਰਾਨੀ ਕਦੋਂ ਹੱਦ ਪਾਰ ਕਰਦੀ ਹੈ?
ਇਹ ਉਦੋਂ ਹੱਦ ਪਾਰ ਕਰ ਜਾਂਦਾ ਹੈ ਜਦੋਂ ਹਰ ਚੀਜ਼ ਡਿਫਾਲਟ ਤੌਰ 'ਤੇ ਇੱਕ ਸੈਂਸਰ ਵਿੱਚ ਬਦਲ ਜਾਂਦੀ ਹੈ: ਭੀੜ ਵਿੱਚ ਚਿਹਰੇ ਦੀ ਪਛਾਣ, ਅੰਦੋਲਨ-ਪੈਟਰਨ ਟਰੈਕਿੰਗ, ਜਾਂ ਸਜ਼ਾ ਜਾਂ ਗੇਟਕੀਪਿੰਗ ਲਈ ਵਰਤੀ ਜਾਂਦੀ ਭਰੋਸੇਮੰਦ "ਭਾਵਨਾ ਖੋਜ"। ਗਲਤ ਸਿਸਟਮ ਵੀ ਗੰਭੀਰ ਨੁਕਸਾਨ ਪਹੁੰਚਾ ਸਕਦੇ ਹਨ ਜੇਕਰ ਉਹ ਦਖਲਅੰਦਾਜ਼ੀ ਜਾਂ ਸੇਵਾਵਾਂ ਤੋਂ ਇਨਕਾਰ ਨੂੰ ਜਾਇਜ਼ ਠਹਿਰਾਉਂਦੇ ਹਨ। ਚੰਗਾ ਅਭਿਆਸ ਸੀਮਤ ਵਰਤੋਂ ਦੇ ਮਾਮਲਿਆਂ, ਸਖ਼ਤ ਧਾਰਨ ਸੀਮਾਵਾਂ, ਅਰਥਪੂਰਨ ਔਪਟ-ਆਉਟ, ਸੁਤੰਤਰ ਨਿਗਰਾਨੀ, ਅਤੇ ਹਿੱਲਦੇ ਭਾਵਨਾ-ਅਧਾਰਤ ਫੈਸਲਿਆਂ ਲਈ ਇੱਕ ਦ੍ਰਿੜ "ਨਾਂਹ" ਵਰਗਾ ਲੱਗਦਾ ਹੈ।.
ਕੀ ਏਆਈ ਲੋਕਾਂ ਨੂੰ ਵਧੇਰੇ ਉਤਪਾਦਕ ਬਣਾ ਰਹੀ ਹੈ - ਜਾਂ ਚੁੱਪਚਾਪ ਕੰਮ ਨੂੰ ਟਾਲ ਰਹੀ ਹੈ?
ਦੋਵੇਂ ਇੱਕੋ ਸਮੇਂ ਸੱਚ ਹੋ ਸਕਦੇ ਹਨ, ਅਤੇ ਇਹ ਤਣਾਅ ਹੀ ਮੁੱਖ ਮੁੱਦਾ ਹੈ। AI ਰੁਟੀਨ ਡਰਾਫਟਿੰਗ, ਦੁਹਰਾਉਣ ਵਾਲੇ ਕੋਡਿੰਗ ਪੈਟਰਨਾਂ ਅਤੇ ਪਹੁੰਚਯੋਗਤਾ ਵਿੱਚ ਮਦਦ ਕਰ ਸਕਦਾ ਹੈ, ਮਨੁੱਖਾਂ ਨੂੰ ਉੱਚ-ਪੱਧਰੀ ਸੋਚ 'ਤੇ ਧਿਆਨ ਕੇਂਦਰਿਤ ਕਰਨ ਲਈ ਆਜ਼ਾਦ ਕਰਦਾ ਹੈ। ਇਹ ਬਹੁਤ ਦੂਰ ਜਾਂਦਾ ਹੈ ਜਦੋਂ ਇਹ ਤਬਦੀਲੀ ਯੋਜਨਾਵਾਂ ਤੋਂ ਬਿਨਾਂ ਭੂਮਿਕਾਵਾਂ ਨੂੰ ਬਦਲਦਾ ਹੈ, ਤਨਖਾਹਾਂ ਨੂੰ ਨਿਚੋੜਦਾ ਹੈ, ਰਚਨਾਤਮਕ ਕੰਮ ਨੂੰ ਮੁਫਤ ਸਿਖਲਾਈ ਡੇਟਾ ਵਾਂਗ ਮੰਨਦਾ ਹੈ, ਜਾਂ ਭਵਿੱਖ ਦੀ ਮੁਹਾਰਤ ਬਣਾਉਣ ਵਾਲੀਆਂ ਜੂਨੀਅਰ ਭੂਮਿਕਾਵਾਂ ਨੂੰ ਹਟਾਉਂਦਾ ਹੈ। ਡਿਸਕਿਲਿੰਗ ਉਦੋਂ ਤੱਕ ਸੂਖਮ ਰਹਿੰਦੀ ਹੈ ਜਦੋਂ ਤੱਕ ਟੀਮਾਂ ਸਹਾਇਕ ਤੋਂ ਬਿਨਾਂ ਕੰਮ ਨਹੀਂ ਕਰ ਸਕਦੀਆਂ।.
ਹਵਾਲੇ
-
ਨੈਸ਼ਨਲ ਇੰਸਟੀਚਿਊਟ ਆਫ਼ ਸਟੈਂਡਰਡਜ਼ ਐਂਡ ਟੈਕਨਾਲੋਜੀ (NIST) - AI ਜੋਖਮ ਪ੍ਰਬੰਧਨ ਢਾਂਚਾ (AI RMF 1.0) - nist.gov
-
ਯੂਰਪੀਅਨ ਯੂਨੀਅਨ - EU AI ਐਕਟ (ਰੈਗੂਲੇਸ਼ਨ (EU) 2024/1689) - ਅਧਿਕਾਰਤ ਜਰਨਲ (ਅੰਗਰੇਜ਼ੀ) - europa.eu
-
ਯੂਰਪੀਅਨ ਕਮਿਸ਼ਨ - ਏਆਈ ਲਈ ਰੈਗੂਲੇਟਰੀ ਢਾਂਚਾ (ਈਯੂ ਏਆਈ ਐਕਟ ਨੀਤੀ ਪੰਨਾ) - europa.eu
-
ਈਯੂ ਏਆਈ ਐਕਟ ਸਰਵਿਸ ਡੈਸਕ - ਐਨੈਕਸ III (ਉੱਚ-ਜੋਖਮ ਵਾਲੇ ਏਆਈ ਸਿਸਟਮ) - europa.eu
-
ਯੂਰਪੀਅਨ ਯੂਨੀਅਨ - ਯੂਰਪੀਅਨ ਯੂਨੀਅਨ ਵਿੱਚ ਭਰੋਸੇਯੋਗ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਲਈ ਨਿਯਮ (EU AI ਐਕਟ ਸੰਖੇਪ) - europa.eu
-
ਯੂਕੇ ਸੂਚਨਾ ਕਮਿਸ਼ਨਰ ਦਫ਼ਤਰ (ICO) - ਸਵੈਚਾਲਿਤ ਵਿਅਕਤੀਗਤ ਫੈਸਲਾ ਲੈਣ ਅਤੇ ਪ੍ਰੋਫਾਈਲਿੰਗ ਕੀ ਹੈ? - ico.org.uk
-
ਯੂਕੇ ਸੂਚਨਾ ਕਮਿਸ਼ਨਰ ਦਫ਼ਤਰ (ICO) - ਯੂਕੇ GDPR ਸਵੈਚਾਲਿਤ ਫੈਸਲੇ ਲੈਣ ਅਤੇ ਪ੍ਰੋਫਾਈਲਿੰਗ ਬਾਰੇ ਕੀ ਕਹਿੰਦਾ ਹੈ? - ico.org.uk
-
ਯੂਕੇ ਸੂਚਨਾ ਕਮਿਸ਼ਨਰ ਦਫ਼ਤਰ (ICO) - ਸਵੈਚਾਲਿਤ ਫੈਸਲਾ ਲੈਣ ਅਤੇ ਪ੍ਰੋਫਾਈਲਿੰਗ (ਮਾਰਗਦਰਸ਼ਨ ਹੱਬ) - ico.org.uk
-
ਯੂਕੇ ਸੂਚਨਾ ਕਮਿਸ਼ਨਰ ਦਫ਼ਤਰ (ICO) - ਡੇਟਾ ਘੱਟੋ-ਘੱਟ ਕਰਨਾ (ਯੂਕੇ GDPR ਸਿਧਾਂਤ ਮਾਰਗਦਰਸ਼ਨ) - ico.org.uk
-
GDPR-info.eu - ਆਰਟੀਕਲ 22 GDPR - gdpr-info.eu
-
GDPR-info.eu - ਆਰਟੀਕਲ 5 GDPR - gdpr-info.eu
-
ਯੂਐਸ ਫੈਡਰਲ ਟਰੇਡ ਕਮਿਸ਼ਨ (ਐਫਟੀਸੀ) - ਘੁਟਾਲੇਬਾਜ਼ ਆਪਣੀਆਂ ਪਰਿਵਾਰਕ ਐਮਰਜੈਂਸੀ ਸਕੀਮਾਂ ਨੂੰ ਵਧਾਉਣ ਲਈ ਏਆਈ ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹਨ - ftc.gov
-
ਅਮਰੀਕੀ ਸੰਘੀ ਵਪਾਰ ਕਮਿਸ਼ਨ (FTC) - ਘੁਟਾਲੇਬਾਜ਼ ਤੁਹਾਡੇ ਪੈਸੇ ਚੋਰੀ ਕਰਨ ਲਈ ਨਕਲੀ ਐਮਰਜੈਂਸੀ ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹਨ - ftc.gov
-
ਯੂਐਸ ਫੈਡਰਲ ਟਰੇਡ ਕਮਿਸ਼ਨ (FTC) - ਜਾਅਲੀ ਸਮੀਖਿਆਵਾਂ ਅਤੇ ਪ੍ਰਸੰਸਾ ਪੱਤਰਾਂ 'ਤੇ ਪਾਬੰਦੀ ਲਗਾਉਣ ਦਾ ਅੰਤਿਮ ਨਿਯਮ (ਪ੍ਰੈਸ ਰਿਲੀਜ਼) - ftc.gov
-
ਫੈਡਰਲ ਬਿਊਰੋ ਆਫ਼ ਇਨਵੈਸਟੀਗੇਸ਼ਨ (FBI) - FBI ਨੇ ਸਾਈਬਰ ਅਪਰਾਧੀਆਂ ਦੁਆਰਾ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਦੀ ਵਰਤੋਂ ਦੇ ਵਧਦੇ ਖ਼ਤਰੇ ਬਾਰੇ ਚੇਤਾਵਨੀ ਦਿੱਤੀ ਹੈ - fbi.gov
-
ਆਰਥਿਕ ਸਹਿਯੋਗ ਅਤੇ ਵਿਕਾਸ ਸੰਗਠਨ (OECD) - OECD AI ਸਿਧਾਂਤ - oecd.ai
-
OECD - ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਕੌਂਸਲ ਦੀ ਸਿਫ਼ਾਰਸ਼ (OECD/LEGAL/0449) - oecd.org
-
ਯੂਰਪੀਅਨ ਕਮਿਸ਼ਨ - ਪਾਰਦਰਸ਼ੀ AI ਪ੍ਰਣਾਲੀਆਂ ਲਈ ਦਿਸ਼ਾ-ਨਿਰਦੇਸ਼ ਅਤੇ ਅਭਿਆਸ ਕੋਡ (FAQs) - europa.eu
-
ਕੋਲੀਸ਼ਨ ਫਾਰ ਕੰਟੈਂਟ ਪ੍ਰੋਵੇਨੈਂਸ ਐਂਡ ਅਥੈਂਟੀਸਿਟੀ (C2PA) - ਸਪੈਸੀਫਿਕੇਸ਼ਨ v2.3 - c2pa.org
-
ਯੂਕੇ ਕੰਪੀਟੀਸ਼ਨ ਐਂਡ ਮਾਰਕਿਟ ਅਥਾਰਟੀ (CMA) - AI ਫਾਊਂਡੇਸ਼ਨ ਮਾਡਲ: ਸ਼ੁਰੂਆਤੀ ਰਿਪੋਰਟ - gov.uk
-
ਅਮਰੀਕੀ ਖੁਰਾਕ ਅਤੇ ਡਰੱਗ ਪ੍ਰਸ਼ਾਸਨ (FDA) - ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ-ਯੋਗ ਮੈਡੀਕਲ ਡਿਵਾਈਸਿਸ - fda.gov
-
NIST - ਸੂਚਨਾ ਪ੍ਰਣਾਲੀਆਂ ਅਤੇ ਸੰਗਠਨਾਂ ਲਈ ਸੁਰੱਖਿਆ ਅਤੇ ਗੋਪਨੀਯਤਾ ਨਿਯੰਤਰਣ (SP 800-53 Rev. 5) - nist.gov
-
NIST - ਜਨਰੇਟਿਵ AI ਪ੍ਰੋਫਾਈਲ (NIST.AI.600-1, ipd) - nist.gov
-
ਓਪਨ ਵਰਲਡਵਾਈਡ ਐਪਲੀਕੇਸ਼ਨ ਸੁਰੱਖਿਆ ਪ੍ਰੋਜੈਕਟ (OWASP) - ਅਨਿਯੰਤ੍ਰਿਤ ਸਰੋਤ ਖਪਤ (API ਸੁਰੱਖਿਆ ਸਿਖਰ 10, 2023) - owasp.org
-
NIST - ਚਿਹਰਾ ਪਛਾਣ ਵਿਕਰੇਤਾ ਟੈਸਟ (FRVT) ਜਨਸੰਖਿਆ - nist.gov
-
ਬੈਰੇਟ ਅਤੇ ਹੋਰ (2019) - ਲੇਖ (PMC) - nih.gov
-
OECD - ਕੰਮ ਵਾਲੀ ਥਾਂ 'ਤੇ AI ਦੀ ਵਰਤੋਂ (PDF) - oecd.org
-
ਵਿਸ਼ਵ ਆਰਥਿਕ ਫੋਰਮ (WEF) - ਨੌਕਰੀਆਂ ਦਾ ਭਵਿੱਖ ਰਿਪੋਰਟ 2025 - ਡਾਇਜੈਸਟ - weforum.org
-
ਯੂਐਸ ਕਾਪੀਰਾਈਟ ਦਫ਼ਤਰ - ਕਾਪੀਰਾਈਟ ਅਤੇ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ, ਭਾਗ 3: ਜਨਰੇਟਿਵ ਏਆਈ ਸਿਖਲਾਈ ਰਿਪੋਰਟ (ਪ੍ਰੀ-ਪ੍ਰਕਾਸ਼ਨ ਵਰਜ਼ਨ) (ਪੀਡੀਐਫ) - copyright.gov
-
ਯੂਕੇ ਸਰਕਾਰ (GOV.UK) - ਕਾਪੀਰਾਈਟ ਅਤੇ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ (ਸਲਾਹ-ਮਸ਼ਵਰਾ) - gov.uk