近日,谷歌公司的人工智能模型Gemini在生成人物图像时,被发现存在疑似“反白人”的问题,公司高级副总裁普拉巴卡尔·拉加万对此表达了歉意。这一事件引发了公众对于AI技术潜在偏见和道德责任的担忧。
Gemini是谷歌研究实验室开发的一款AI模型,旨在通过深度学习技术生成高质量的人物图像。然而,根据用户的描述和需求,Gemini在生成人物图像时出现了不公平的偏见,疑似"反白人"。这一问题引起了广泛的争议和批评,认为这是对特定种族的歧视和偏见。
谷歌公司对此表示歉意,并暂时停止了Gemini生成人物图像的功能。拉加万承认,谷歌在AI技术的开发和应用中存在问题,并强调公司将积极采取措施解决这个问题。
这一事件再次引发了对于AI技术潜在偏见和道德责任的讨论。AI技术的发展迅猛,但在算法设计和训练数据方面可能存在偏见和不公平现象。因此,开发者和使用者需要认真对待AI技术的道德责任,确保AI技术的公正性和公平性。